Чему равен 1 петафлопс в гигабайтах. Суперкомпьютер с производительностью петафлопс уже не за горами. Причины широкого распространения

Флопс - это единица, которая обозначает производительность суперкомпьютера. Один петафлопс (1 Пфлопс) означает, что машина может совершать 1 квадриллион (1 тыс. трлн) операций в секунду. Сейчас мощностью свыше 1 Пфлопс обладают только две машины - Jaguar, собранный компанией Cray, и Roadrunner производства IBM. Оба суперкомпьютера расположены в США. Вообще из первой десятки только два суперкомпьютера находятся за пределами США: в Германии и Китае.

04.08.2009 12:20

Сегодня компьютерная отрасль - это передовой рубеж науки и техники. Для решения сложных задач в области физики, астрономии, биологии, медицины требуются большие вычислительные мощности. Именно суперкомпьютеры могут в этом помочь, ведь они для того и создаются.

В последнее время довольно часто появляется информация, что где-то создан очередной суперкомпьютер. Но что же представляет собой это чудо техники? В современном понимании суперкомпьютер - это мощнейшая электронная вычислительная машина с производительностью свыше одного триллиона операций с плавающей точкой в секунду или терафлопса. Флопс (от англ. Floating point Operations Per Second) - это величина для измерения производительности компьютеров, показывающая, сколько операций с плавающей запятой в секунду выполняет та или иная вычислительная система. Как правило, современный суперкомпьютер представляет собой многопроцессорный или многомашинный комплекс (а в ряде случаев и совмещенный вариант), работающий на общую память и общее поле внешних устройств.

Традиционно основной областью применения суперкомпьютеров являются научные изыскания. Физика плазмы и статистическая механика, физика конденсированных сред, молекулярная и атомная физика, теория элементарных частиц, газовая динамика и теория турбулентности, астрофизика - это лишь часть направлений, где задействованы огромные компьютерные мощности.

Сегодня сверхмощные компьютерные вычислительные системы применяются и для решения технических проблем. Это, в первую очередь, задачи аэрокосмической и автомобильной промышленности, ядерной энергетики, предсказания и разработки месторождений полезных ископаемых, нефтедобывающей и газовой промышленности, а также конструирование непосредственно суперЭВМ.

Суперкомпьютеры также традиционно применяются для военных целей. Помимо разработки разнообразного оружия, они моделируют его использование. Например, в США вычислительные мощности суперЭВМ Министерства энергетики потребуются для моделирования применения ядерного оружия, что позволит в будущем полностью отказаться от реальных ядерных испытаний.

В настоящее время большинство суперкомпьютеров из рейтинга TOP-500 занимаются научными разработками. В этой сфере задействовано 72 мощнейших информационно-вычислительных машин. Финансовую отрасль обслуживают 46 суперкомпьютеров, 43 машины работают на благо геофизики, 33 трудятся в сфере информационного сервиса, 31 управляют логистикой, 29 занимаются разработкой полупроводников, 20 производят программное обеспечение, 18 используются в службах обработки информации, а 12 систем управляют интернетом.

Работа с огромными массивами вычислений отличает суперкомпьютеры от серверов и мэйнфреймов (англ. mainframe) - компьютерных систем с высокой общей производительностью, призванных решать типовые задачи, например, обслуживание больших баз данных или одновременная работа с множеством пользователей.

Рост производительности вычислительных систем происходит, прежде всего, за счет повышения быстродействия физико-технологической базы (электронных компонентов, устройств памяти, средств коммуникаций, ввода-вывода и отображения информации) и развития параллельности в процессе обработки информации на всех системно-структурных уровнях, что связано с увеличением количества задействованных компонентов (обрабатывающих элементов, объемов памяти, внешних устройств).

Самой популярной архитектурой суперкомпьютеров (72% в списке TOP-500) сегодня являются так называемые кластеры. Для построения кластерной архитектуры суперЭВМ используются вычислительные узлы, которые представляют собой порой самые обычные компьютеры. В таком узле обычно несколько процессоров - от 2 до 8. Для этого используются вполне обыкновенные комплектующие, широко доступные на рынке - материнские (SMP-мультипроцессорные) платы, процессоры Intel, AMD или IBM, а также обычные модули оперативной памяти и винчестеры.
За свою сравнительно небольшую историю суперкомпьютеры эволюционировали от маломощных по современным меркам систем до машин с фантастической производительностью.

Первое же упоминание суперкомпьютера относится к концу 20-х годов прошлого столетия, когда данный термин появился на страницах газеты New York World в виде словосочетания "super computing" (в переводе с английского - супервычисления). Данное понятие относилось к табуляторам - электромеханическим вычислительным машинам, изготовленным компанией IBM по заказу и для нужд Колумбийского университета и производящим сложнейшие для того времени вычисления. Естественно, тогда никаких суперкомпьютеров в современном понимании просто не было, этот далекий предок современных ЭВМ скорее являлся неким подобием калькулятора.

Упоминание термина "суперкомпьютер" по отношению к мощной электронной вычислительной системе приписывается Джорджу Мишелю (George A. Michael) и Сиднею Фернбачу (Sidney Fernbach) - сотрудникам Ливерморской национальной лаборатории (США, Калифорния) и компании Control Data Corporation. Они в конце 60-х годов занимались созданием мощных ЭВМ для нужд министерства обороны и энергетической отрасли США. Именно в Ливерморской лаборатории было разработано большинство суперкомпьютеров, включая самый быстрый c 2004 по 2008 год суперкомпьютер в мире - Blue Gene/L.

Однако в широкое употребление термин "суперкомпьютер" вошел благодаря американскому разработчику вычислительной техники Сеймуру Крею (Seymour Cray), еще в 1957 году создавшему компанию Control Data Corporation, которая занялась проектированием и постройкой электронных вычислительных комплексов, ставших родоначальниками современных суперкомпьютеров. В 1958 году под его руководством был разработан первый в мире мощный компьютер на транзисторах CDC 1604. Стоит отметить, что компания Сеймура Крея стала первой серийно выпускать суперкомпьютеры - в 1965 году на рынок выходит машина CDC-6600 производительностью 3 млн. операций в секунду. Этот компьютер стал основой для целого направления, которое Крей основал в 1972 году и назвал Cray Research. Данная фирма занималась исключительно разработкой и производством суперкомпьютеров. В 1976 году Cray Research выпустила вычислительную систему CRAY-1 с быстродействием около 100 мегафлопс. А через девять лет, в1985 году, суперкомпьютер CRAY-2 преодолевает скорость вычисления в 2 гигафлопса.

В 1989 году Сеймур Крей открывает Cray Computer Corporation с явным ориентированием на рыночные перспективы суперЭВМ. Здесь он создает суперкомпьютер CRAY-3, быстродействие которого доходило уже до пяти гигафлопс. С этим компьютером связан интересный факт. Дело в том, что после появления CRAY-3 в английский язык вошло выражение "Время Крея" (Cray time), которое означало стоимость часа работы суперкомпьютера (в то время она составляла 1 тыс. долларов в час). Есть и еще одно выражение, которое ходило в кругах компьютерных специалистов - "Суперкомпьютер - это любой компьютер, который создал Сеймур Крей".

Стоит отметить, что в 80-е годы XX века появилось множество небольших конкурирующих компаний, которые создавали высокопроизводительные компьютеры. Но уже к середине 90-х, не выдержав конкуренции с крупными корпорациями, большинство мелких и средних фирм оставили эту сферу деятельности.

Сегодня суперкомпьютеры являются уникальными системами, создаваемыми "традиционными" игроками компьютерного рынка, такими как IBM, Hewlett-Packard, Intel, NEC и другими. Именно эти компьютерные гиганты теперь диктуют правила игры в сфере высокопроизводительных электронных вычислительных систем.

В 1997 году американская компания Intel выпустила свой суперкомпьютер ASCI Red, который стал первой в мире системой с быстродействием более одного триллиона операций в секунду - 1,334 терафлопс. Суперкомпьютеры Intel сохраняли первенство еще два года, но в 2000 году первым стал компьютер ASCI White корпорации IBM, установленный в Ливерморской лаборатории (Lawrence Livermore National Laboratory), который ежесекундно производил 4 трлн. 938 млрд. вычислений (4,938 терафлопс). Эта суперЭВМ занимала лидирующую позицию еще год, получив после апгрейда скорость равную 7,226 терафлопс. Но уже в апреле 2002 года японская компания NEC объявила о запуске суперкомпьютера Earth Simulator, который смог достичь максимальной скорости 35,86 терафлопс.

Очередную смену лидеров мир суперкомпьютеров пережил осенью 2004 года - 29 сентября на первое место в мире вышел суперкомпьютер компании IBM Blue Gene/L. Эта мощная вычислительная система достигала скорости 36,01 терафлопс. Однако и этот рекорд продержался недолго - уже 26 октября национальное управление США по аэронавтике и исследованию космического пространства (NASA) заявило, что его новый суперкомпьютер Columbia, построенный фирмой Silicon Graphics и названный в честь погибшего в феврале 2003 года шатла, произвел серию вычислений со скоростью 42,7 терафлопс. Через несколько дней этот же компьютер смог увеличить быстродействие до 51,87 терафлопс.
В начале ноября 2004 звание абсолютного рекордсмена вновь завоевал Blue Gene/L, очередной образец которого компания IBM выпустила для Министерства обороны США. В настоящее время максимальная скорость его работы превышает 70,72 терафлопс. Этот компьютер был лидером вплоть до июня 2008 года, когда IBM для ядерной лаборатории в Лос-Аламосе (США, Нью Мехико) построил свой очередной суперкомпьютерный шедевр - мощнейшую из когда-либо созданных электронных вычислительных систем Roadrunner.

Специально для учета суперкомпьютеров был учрежден проект TOP-500, основной задачей которого является составление рейтинга и описаний самых мощных ЭВМ мира. Данный проект был открыт в 1993 году и публикует дважды в год (в июне и ноябре) обновленный список суперкомпьютеров.

Итак, как уже говорилось, самым мощным на сегодняшний день суперкомпьютером, по данным последней редакции рейтинга TOP-500, является вычислительная система IBM Roadrunner. Этот компьютер построен по гибридной схеме из 6500 двухъядерных процессоров AMD Opteron и почти 13 000 процессоров IBM Cell 8i, размещенных в специальных стойках TriBlades, соединенных с помощью Infiniband - высокоскоростной коммутируемой последовательной шины. Его пиковая производительность составляет 1,105 петафлопа.

Roadrunner работает под управлением Linux. Суперкомпьютер от IBM занимает около 1100 квадратных метров пространства и весит 226 тонн, а его энергопотребление - 3,9 Мегаватт. Стоимость IBM Roadrunner составила 133 млн. долларов.

Министерство энергетики США будет применять RoadRunner для расчетов старения ядерных материалов и анализа безопасности и надежности ядерного арсенала. Кроме того, эта суперЭВМ будет использоваться для научных, финансовых, транспортных и аэрокосмических вычислений.
Второе место в рейтинге занимает суперкомпьютер Cray XT5 Jaguar, который установлен в лаборатории министерства энергетики США в Ок-Ридже, штат Теннесси. Его производительность равна 1,059 петафлопа.

Поставить новый рекорд производительности Jaguar смог после того, как к его 84 блокам Cray XT4 были добавлены две сотни блоков Cray XT5. Последние построены на базе четырехъядерных процессоров AMD Opteron. Каждый блок Cray XT5 содержит до 192 процессоров. Общее количество процессоров Jaguar составляет 45 тысяч.

Из других технических характеристик суперкомпьютера известны объем его оперативной памяти и емкость дисковых накопителей, они равны 362 терабайтам и 10 петабайтам соответственно.

В отличие от IBM Roadrunner, суперкомпьютеру Jaguar предстоит решать мирные задачи. Например, он будет использован для моделирования климатических изменений и в таких областях, как возобновляемые источники энергии и материаловедение. Кроме того, в министерства энергетики США заявляют, что Jaguar позволит исследовать процессы, об изучении которых раньше не было и речи. Что это за процессы, к сожалению, не сообщается.

Третьим по мощности суперкомпьютером в мире, а также самым быстрым в Европе является модель суперкомпьютерной линейки IBM Blue Gene/P, которая установлена в исследовательском центре города Юлих в Германии. Вычислительный комплекс JUGENE, который был запущен летом этого года, насчитывает 72 стойки, в которых размещается 294912 процессора PowerPC 450 core 850 МГц, а его мощность составляет 825,5 терафлопс. Объем памяти немецкого суперЭВМ составляет 144 ТБ. Кроме того, данный суперкомпьютер является одним из самых экономичных устройств среди аналогичных решений - его энергопотребление составляет порядка 2,2 МВт.

Вычислительные ресурсы этого суперкомпьютера используются в числе прочего при расчете проектов, связанных с термоядерными исследованиями, разработкой новых материалов, поиском лекарственных препаратов следующего поколения, а также при моделировании изменений климата, поведения элементарных частиц, сложных химических реакций и т. д. Распределением вычислительных мощностей между проектами занимается группа независимых экспертов.

Кстати, Россия по данным на ноябрь 2008 года занимает 11-14 место по числу установленных систем наряду с Австрией, Новой Зеландией и Испанией. Лидируют по этому показателю США, где находятся порядка 300 суперкомпьютеров из рейтинга. Однако по мощности самый производительный российский суперкомпьютер МВС-100K, который выполняет задачи в Межведомственном суперкомпьютерном центре Академии наук РФ, находится лишь на 54 месте. Несмотря на этот факт, МВС-100K с пиковой производительностью 95,04 терафлопс в настоящий момент является самым мощным суперкомпьютером, установленным в странах СНГ. В его состав входят 990 вычислительных модулей, каждый из которых оснащен двумя четырехъядерными процессорами Intel Xeon, работающими на частоте 3 ГГц. В ближайшем будущем планируется увеличение производительности МВС-100К до 150 TFlops. Этот суперкомпьютер предназначен для решения широкого круга сложных научно-технических задач.

Какие перспективы ожидают суперкомпьютеры в будущем? По мнению экспертов, самые радужные. Но уже сейчас ясно, что их производительность будет расти довольно быстро за счет увеличения числа процессорных ядер и средней частоты процессоров. Кроме того, для решения прикладных проблем в суперкомпьютерах будут использовать не только универсальные процессоры, но и специализированные (например, графические процессоры, разработанные Nvidia и ATI), предназначенные для конкретных задач. Также производители суперкомпьютеров, будут искать новые уникальные архитектурные решения, которые бы позволили не только увеличить мощность ЭВМ, но и дали бы преимущества в конкуренции на коммерческом рынке. Помимо этого, в будущем у суперкомпьютеров заметно повысится коэффициент полезного действия за счет развития программных средств. Возрастут и интеллектуальные способности суперЭВМ, а вместе с этим будут расти и профессиональные качества программистов и других ИТ-специалистов.

Стоит также отметить, что в будущем высокопроизводительные вычислительные системы будут постепенно увеличивать свое присутствие на мировом компьютерном рынке. По данным IDC, мировой рынок суперкомпьютеров ежегодно растет на 9,2%. Выручка производителей суперкомпьютеров во втором квартале 2008 года составила 2,5 млрд. долларов, что на 4% больше аналогичного периода прошлого года и на 10% больше, чем в первом квартале 2008 года.

Как отмечают аналитики IDC, первое место по объему выручки заняла компания HP с долей рынка в 37%, за ней следует IBM (27%) и замыкает "тройку" лидеров Dell (16%). По прогнозу аналитиков IDC, рынок суперкомпьютеров к 2012 году достигнет отметки в 15,6 млрд. долларов.

Из представленных в TOP-500 систем 209 (41,8%) изготовлены специалистами HP. Компания IBM находится на втором месте со 186 вычислительными машинами, а компания Cray занимает третье место - в ее активе 22 суперЭВМ.

Что касается России, то здесь, по мнению коммерческого директора компании "Т-Платформы" Михаила Кожевникова, ежегодный рост на рынке суперкомпьютеров составляет порядка 40%. Так, по данным "Т-Платформы" объем рынка суперЭВМ в России в 2007 году составил около 60 млн. долларов, а в 2008 году рынок вырос примерно до 80 млн. долларов. По словам Михаила Кожевникова, даже в условиях кризиса ожидается, что за 2009 год рынок вырастет примерно на 60%, а при благополучных условиях и до 100%.

Как видно, суперкомпьютеры только набирают "коммерческие" обороты. Это трудно представить, но, действительно, громоздкие вычислительные машины расходятся на компьютерном рынке как "горячие пирожки". Стоит ли ждать уменьшенного варианта суперЭВМ с такими же высокими характеристиками, которыми сейчас обладают большие вычислительные системы? На этот непростой вопрос могут ответить, наверное, только сами суперкомпьютеры, ведь это их работа.

Конец работы -

Эта тема принадлежит разделу:

Назван новый список мощнейших суперкомпьютеров

Создание сверхмощных ЭВМ названо одним из приоритетов технологического.. авторы павел лебедев создание сверхмощных ЭВМ было названо одним из приоритетов..

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

− 10 21 йоттафлопс − 10 24 ксерафлопс − 10 27

FLOPS (или flops или flop/s )(акроним от англ. Fl oating point O perations P er S econd , произносится как флопс ) - величина, используемая для измерения производительности компьютеров , показывающая, сколько операций с плавающей запятой в секунду выполняет данная вычислительная система.

Поскольку современные компьютеры обладают высоким уровнем производительности, более распространены производные величины от FLOPS, образуемые путём использования стандартных приставок системы СИ .

Флопс как мера производительности

Как и большинство других показателей производительности, данная величина определяется путём запуска на испытуемом компьютере тестовой программы, которая решает задачу с известным количеством операций и подсчитывает время, за которое она была решена. Наиболее популярным тестом производительности на сегодняшний день является программа LINPACK , используемая, в том числе, при составлении рейтинга суперкомпьютеров TOP500 .

Одним из важнейших достоинств показателя флопс является то, что он до некоторых пределов может быть истолкован как абсолютная величина и вычислен теоретически, в то время как большинство других популярных мер являются относительными и позволяют оценить испытуемую систему лишь в сравнении с рядом других. Эта особенность даёт возможность использовать для оценки результаты работы различных алгоритмов , а также оценить производительность вычислительных систем, которые ещё не существуют или находятся в разработке.

Границы применимости

Несмотря на кажущуюся однозначность, в реальности флопс является достаточно плохой мерой производительности, поскольку неоднозначным является уже само его определение. Под «операцией с плавающей запятой» может скрываться масса разных понятий, не говоря уже о том, что существенную роль в данных вычислениях играет разрядность операндов , которая также нигде не оговаривается. Кроме того, величина флопс подвержена влиянию очень многих факторов, напрямую не связанных с производительностью вычислительного модуля, таких как: пропускная способность каналов связи с окружением процессора , производительность основной памяти и синхронность работы кэш-памяти разных уровней.

Всё это, в конечном итоге, приводит к тому, что результаты, полученные на одном и том же компьютере при помощи разных программ, могут существенным образом отличаться, более того, с каждым новым испытанием разные результаты можно получить при использовании одного алгоритма. Отчасти эта проблема решается соглашением об использовании однообразных тестовых программ (той же LINPACK) с осреднением результатов, но со временем возможности компьютеров «перерастают» рамки принятого теста и он начинает давать искусственно заниженные результаты, поскольку не задействует новейшие возможности вычислительных устройств. А к некоторым системам общепринятые тесты вообще не могут быть применены, в результате чего вопрос об их производительности остаётся открытым.

Причины широкого распространения

Несмотря на большое число существенных недостатков, показатель флопс продолжает с успехом использоваться для оценки производительности, базируясь на результатах теста LINPACK. Причины такой популярности обусловлены, во-первых, тем, что флопс, как говорилось выше, является абсолютной величиной. А, во-вторых, очень многие задачи инженерной и научной практики, в конечном итоге, сводятся к решению систем линейных алгебраических уравнений , а тест LINPACK как раз и базируется на измерении скорости решения таких систем. Кроме того, подавляющее большинство компьютеров (включая суперкомпьютеры), построены по классической архитектуре с использованием стандартных процессоров, что позволяет использовать общепринятые тесты с большой достоверностью. Как показано на процессорах Intel Core 2 Quad Q9450 2.66ГГц @3.5ГГц и Intel Core 2 Duo E8400 3000 МГц (2008) программа LINPACK не использует решения алгебраических выражений, так как любая операция не может идти быстрее, чем 1 такт процессора. Так для процессоров Intel Core 2 Quad один такт требует один-два герца. Так как для задач с плавающей запятой: деление/умножение, сложение/вычитание - требуется намного больше одного такта, то видно, что выдать 48 Гигафлопс и 18,5 гигафлопса соответственно данные процессоры не могли. Часто вместо операции деления с плавающей запятой используется загрузка данных в режиме ДМА из оперативной памяти в стек процессора. Так работает программа LINPACK в некоторых тестах, но, строго говоря, результат не является значением флопс.

Примечание: замечание о невозможности выполнения более одной операции за такт абсолютно некорректно, так как все современные процессоры в каждом своем ядре содержат несколько исполнительных блоков каждого типа (в том числе и для операций с плавающей точкой) работающих параллельно и могут выполнять более одной инструкции за такт. Данная особенность архитектуры называется суперскалярность и впервые появилась еще в самом первом процессоре

Обзор производительности реальных систем

Из-за высокого разброса результатов теста LINPACK, приведены примерные величины, полученные путём осреднения показателей на основе информации из разных источников. Производительность игровых приставок и распределённых систем (имеющих узкую специализацию и не поддерживающих тест LINPACK) приведена в справочных целях в соответствии с числами, заявленными их разработчиками. Более точные результаты с указанием параметров конкретных систем можно получить, например, на сайте .

Суперкомпьютеры

Персональные компьютеры

Процессоры

  • Intel Core 2 Duo E8400 3.0ГГц () - 18.6 Гфлопс При использовании стандартной версии LINPACK 10
  • Intel Core 2 Duo E8400 3.0ГГц @4.0ГГц () - 25 Гфлопс (LINPACK Benchmark 10.0 64-бит) в Windows Vista x64 Ultimate SP1
  • Intel Core 2 Quad Q9450 2.66ГГц @3.5ГГц - 48 ГФлопс (LINPACK Benchmark 10.0 64-бит) в Windows 2003sp2 x64

Карманные компьютеры

Распределённые системы

Игровые приставки

Человек и калькулятор

Примечания

См. также

Ссылки

  • TOP500 Рейтинг суперкомпьютеров TOP500 (англ.)
  • The Performance Database Server Большая база данных производительности вычислительных систем (англ.)
  • Roy Longbottom’s PC Benchmark Collection Подборка тестовых программ для ПК (включая LINPACK) и результатов испытаний (англ.)
  • Linpack CPU Benchmark for Pocket PC Версия LINPACK для КПК (англ.)

Wikimedia Foundation . 2010 .

Смотреть что такое "Петафлопс" в других словарях:

    Скриншот клиента Folding@home для PlayStation 3 , показывающий 3D модель моделируемого белка Тип Распределённые вычислени … Википедия

Sony Computer Entertainment Inc. с гордостью сообщила о том, что участие развлекательной системы PLAYSTATION 3 позволило проекту Folding@home Стэнфордского университета достигнуть совокупной мощности свыше 1 петафлопса.

Петафлопс — это возможность вычислительной машины или сети проводить 1 квадрильон (единица с 24 нулями) вычислений с плавающей точкой в секунду (FLOPS). Иными словами, если бы каждый человек на Земле проводил простое математическое вычисление (например, вычисление процента от некой суммы), то каждому землянину понадобилось бы делать 75000 простых математических вычислений в секунду для того, чтобы совокупная вычислительная мощность человечества достигла петафлопса.

Подобное увеличение вычислительной мощности проекта Folding@home значительно ускорит проведение исследований, на которые раньше уходили десятилетия. И все это стало возможным благодаря используемому в PLAYSTATION 3 процессору Cell Broadband Engine (Cell/B.E.), вычислительная мощность которого составляет свыше 180 GFLOPS (миллиардов операций с плавающей точкой в секунду). Cell/B.E. примерно в 10 раз быстрее обычного процессора для PC, поэтому PLAYSTATION 3 без преувеличений можно называть домашним суперкомпьютером. Участие PLAYSTATION 3 в проекте помогает ученым выявлять причины появления таких заболеваний как болезнь Паркинсона, болезнь Альцгеймера и раковых заболеваний.

По словам адъюнкт-профессора химии Стэнфордского университета и руководителя проекта Folding@home Виджая Панди (Vijay Pande), включение PLAYSTATION 3 в проект Folding@home предоставило в распоряжение ученых такую мощь, о которой они не могли даже мечтать.

В свою очередь, президент и генеральный директор американского подразделения SCEI Джек Треттон (Jack Tretton) заявил, что еще на этапе разработки инженеры компании знали, что мощность PLAYSTATION 3 будет использоваться не только для развлечений, но и во благо всего человечества. Для всего коллектива SCEI использование ее детища в проектах, подобных Folding@home, — это повод для гордости.

Исследование белков — крайне сложный процесс. У обычного компьютера решение простейшей задачи может затянуться до 30 лет. Folding@home распределяет вычисления между тысячами компьютеров, объединенных в единую сеть. До недавнего времени в Folding@home использовались только персональные компьютеры. В проекте участвовали порядка 200 тысяч PC, совокупная мощность которых составляла около четверти петафлопса. Благодаря обновлению внутреннего ПО 15 марта 2007 года PLAYSTATION 3 «научилась» работать с проектом. После этого в Folding@home зарегистрировалось более 600 тысяч пользователей PLAYSTATION 3, что позволило превысить отметку мощности в 1 петафлопс.

Для того чтобы принять участие в Folding@home, нужно лишь подключить PLAYSTATION 3 к Интернету, загрузить новую версию внутреннего программного обеспечения System Software и нажать пиктограмму Folding@home в разделе «Сеть» главного меню XMB (XrossMediaBar). В настойках можно установить опцию автоматического запуска приложения Folding@home в то время, когда PLAYSTATION 3 находится в режиме ожидания. Для автоматического запуска приложения необходимо, чтобы PLAYSTATION 3 была включена и подключена к Интернету.

Стоит отметить, что Folding@home — это только начало. SCEI планирует добавить в PLAYSTATION 3 поддержку множества других проектов распределенных вычислений в самых разных научных областях — от медицины до социальных и экологических исследований. При этом владельцы PLAYSTATION 3 смогут сами определять, на какие цели направить мощь своей развлекательной системы.

Вычислительная техника развивается семимильными шагами. Поэтому вполне вероятно, что за тот момент, когда печаталась данная статья свет увидел нового «монстра вычислений». Мы же хотим познакомить вас десяткой лидеров на ноябрь 2012 года.

1. Titan (США) — 17,59 петафлопс

Первое место занял американский суперкомпьютер Titan, созданный при участии компаний Cray и Nvidia. Он находится в Национальной лаборатории Оук-Ридж в штате Теннесси, которая принадлежит министерству энергетики США. В секунду Titan может выполнять 17,59 квадриллиона операций с плавающей точкой, что эквивалентно производительности в 17,59 петафлопс.

Titan состоит из 18688 узлов. Он создан на архитектуре гибридного типа: в каждый узел суперкомпьютера входят 16-ядерный процессор AMD Opteron и графический ускоритель Nvidia Tesla K20X. Использование графических процессоров позволяет снизить энергопотребление системы.

Titan используют для проектирования энергоэффективных двигателей для транспортных средств, моделирования последствий изменения климата и для изучения биотоплива. Оук-Ридж предоставляет суперкомпьютер в аренду другим исследовательским организациям.

2. Sequoia (США) — 16,32 петафлопс

Cуперкомпьютер Sequoia, тоже принадлежит министерству энергетики США и работает на 1572864 ядрах. Sequoia разрабатывается компанией IBM для Национальной администрации по ядерной безопасности в рамках программы передовых вычислений и моделирования.

Sequoia будет использоваться в основном для моделирования ядерных взрывов, заменив суперкомьютеры ASC Purple и Blue Gene/L, работающие в Ливерморской национальной лаборатории. Также Sequoia сможет решать задачи для нужд астрономии, энергетики, изучения человеческого генома и изменения климата.

Sequoia построена по архитектуре Blue Gene/Q, являющейся последним поколением в линейке суперкомпьютерных архитектур Blue Gene. Суперкомпьютер состоит из 98 304 вычислительных узлов и имеет 1,6 Пб памяти в 96 стойках, расположенных на площади в 300 кв. м. Используются 16-ти или 8-ми ядерные центральные процессоры Power Architecture, изготовленные по техпроцессу 45 нм.

Компания IBM создала компьютер, который может решать за одну секунду 20 квадриллионов разнообразных математических операций. А это значит, что если бы 7 миллиардов человек взяли бы калькуляторы и начали делать математические расчеты одновременно без передышек, все 24 часа в сутки, все 365 дней, то ушло бы на эти операции до 320 лет, не менее. Но теперь так поступать не нужно, потому что появилась Sequoia. Компьютер проведет подобные расчеты всего лишь за час.

3. K computer (Япония) — 10,51 петафлопс

K computer - японский суперкомпьютер производства компании Fujitsu, запущенный в 2011 году в Институте физико-химических исследований RIKEN в городе Кобе. Название происходит от японской приставки «кэй», означающей 10 квадриллионов и одновременно обозначающей столицу, то есть намек на «главный компьютер»

По состоянию на июнь 2011 года система имела 68 544 8-ядерных процессора SPARC64 VIIIfx, размещенных в 672 вычислительных стойках, что составляло 548 352 вычислительных ядра, произведенных компанией Fujitsu по 45-нанометровому техпроцессу. Суперкомпьютер использует водяное охлаждение, что позволило снизить потребление энергии и увеличить плотность компоновки.

4. Mira (США) — 8.16 петафлопс

С помощью суперкомпьютера IBM Blue Gene/Q (Mira) американские ученые попытаются смоделировать Вселенную. Ученые надеются получить ответы на наиболее интересующие их вопросы касательно возникновения Вселенной. На компьюрете предполагается смоделировть и последовательно просчитать 12 млрд лет, прошедшие с момента Большого взрыва.

Суперкомпьютер состоит из 50 тыс вычислительных узлов, в каждом и которых содержится 16 ядер. Компьютер использует огромное хранилище информации объемом 70 петабайт и жидкостную систему охлаждения. Mira способен выполнять 8 квадриллионов операций в секунду.

5. JuQueen (Германия) — 5,9 петафлопс

В немецком городе Юлих (федеральная земля Северный Рейн-Вестфалия) официально запущен самый мощный в Европе суперкомпьютер JuQueen. Его производительность равна 5,9 петафлопс или 5,9 тыс триллионов операций в секунду.

Процессоры JuQueen, имеют в общей сложности почти 459 тыс ядер. При этом разработаны они были с применением энергосберегающих технологий. Охлаждаться система будет с помощью циркулирующих потоков воды температурой 18 градусов. Специалисты указывают, что эта машина примерно в 100 тыс раз мощнее самого современного персонального компьютера.

Разработкой ЭВМ занималась корпорация IBM. Финансировался проект из средств крупнейшей научной организации ФРГ — Центра Гельмгольца, федерального бюджета, а также из казны Северного Рейна-Вестфалии. Точная сумма не разглашается.

6. SuperMUC (Германия) — 2,9 петафлопс

SuperMUC — второй по мощности суперкомпьютер Европы был запущен в конце июня 2012. Суперкомпьютрер был создан для решения сложных научных задач в области физики и динамики жидкостей. Машина работает на платформе SUSE Linux Enterprise Server. SuperMUC на платформе System X iDataPlex компании IBM оснащен более чем 155 000 ядрами процессоров, которые обеспечивают совокупно максимальную производительность порядка 3 петафлопов.

Особенностью SuperMUC является инновационная технология охлаждения системы теплой водой, разработанная компанией IBM, в основу которой положена система циркуляции крови в организме человека. В результате SuperMUC затрачивает на 40% меньше энергии на охлаждение систем, чем «классические» вычислительные центры, а так же позволяет аккумулировать и использовать сэкономленную энергию для отопления зданий Компьютерного Центра Лейбница.

7. Stampede (США) — 2.7 петафлопс

Техасский компьютерный центр (Texas Advanced Computing Center, TACC) при университете Техаса создал суперкомпьютер, способный выполнять 2,7 квадриллионов операций с плавающей точкой в секунду. TACC является частью проекта XSEDE (Среда для создания передовых научных и инженерных открытий), целью которого является предоставление исследователям доступа к суперкомпьютерным ресурсам.

В основе Stampede лежит архитектура Dell, рассчитанная на работу в гиперскалярной среде и использующая 8-ядерные процессоры Intel Xeon E5-2680. Процессоры Xeon обеспечивают более чем 2 петафлопс производительности. Работы над проектом не закончены, и в 2013 году Stampede будет также использовать новые сопроцессоры Intel Xeon Phi, предназначенные для выполнения параллельных вычислений, которые будут ответственны более чем за 7 петафлопс производительности системы. Это позволит увеличить суммарную производительность системы до 10 петафлопс.

Помимо Xeon Phi, суперкомпьютер будет использовать 128 графических ускорителей следующего поколения от NVIDIA для обеспечения удаленной виртуализации. Производительность системы может вырасти до 15 петафлопс по мере установки процессоров Intel нового поколения. Еще одним поставщиком компонентов для Stampede является компания Mellanox, предоставляющая сетевое оборудование Infiniband с пропускной способностью 56Гбит/с.

Система охлаждения суперкомпьютера построена по принципу изоляции горячих зон и предполагает использование встраиваемых модулей охлаждения, что позволяет размещать оборудование с высокой плотностью до 40кВт на стойку. Система распределения питания подает напряжение 415В на стойки и 240В на сервера. Потребности в электроэнергии систем Stampede и Ranger обеспечиваются электроподстанцией мощностью в 10МВт.

8. Tianhe-1A (Китай) — 2,57 петафлопс

Tianhe-1A - суперкомпьютер, спроектированный Национальным университетом оборонных технологий Китайской Народной Республики. Скорость вычислений, производимых суперкомпьютером, составляет 2,57 петафлопс.

Tianhe-1A использует 7168 графических процессоров Nvidia Tesla M2050 и 14336 серверных процессоров Intel Xeon. Согласно заявлениям компании Nvidia, суперкомпьютер использует электрическую энергию в три раза эффективнее, чем иные электронные вычислительные машины подобного класса. Суперкомпьютер, построенный исключительно на базе центральных процессоров (CPU), при сравнимой скорости вычислений потреблял бы более 12 МВт электрической энергии. Потребляемая Tianhe-1A электрическая мощность составляет 4,04 МВт. Без использования графических процессоров суперкомпьютер сравнимой производительности потребовал бы установки более чем 50 тыс. CPU.

Строительство суперкомпьютера обошлось в $88 млн, а ежегодные операционные расходы составляют около $20 млн. В обслуживании занято около 200 специалистов. Основное направление работы - исследования по добыче нефти и по аэродинамике. Декларируется «открытый доступ» к суперкомпьютеру, что теоретически позволяет его использование другими странами.

9. Fermi (Италия) — 1,7 петафлопс

На девятом месте находится Fermi. Система размещена на серверах некоммерческого консорциума Cineca, куда входят 54 итальянских университета и научно-исследовательских организаций. Ферми состоит из 10,240 процессоров PowerA2 с частотой 1,6 ГГц, с 16 ядрами каждый. В общей сложности у компьютера 163,840 вычислительных ядер. Каждый процессор поставляется с 16GByte оперативной памяти (1GByte на ядро). Ферми используется итальянской и европейской командами исследователей для выполнения вычислений, необходимых в крупномасштабных исследовательских проектах, направленных на решение фундаментальных проблем в науке и технике. Система названа в честь Энрико Ферми, итальянского физика-ядерщика.

10. DARPA Trial Subset (США) — 1,5 петафлопс

Эта система представляет собой сервер IBM Power 775 на 63360 ядрах, который достигает производительности в 1,5 петафлопс. Другой информации на данный момент нет.

И в заключение…

Российская разработка — суперкомпьютер «Ломоносов», принадлежащий МГУ имени М.В. Ломоносова, в данном списке (на конец 2012 года) занимает двадцать второе место. Его производительность составила 0,9 петафлопс. Основной причиной, почему отечественные машины не занимают лидирующих позиций в международных рейтингах, российские производители единогласно называют отсутствие надлежащего финансирования.

Основной вид узлов, обеспечивающих свыше 90% производительности суперкомпьютера – T-Blade2. Эта суперкомпьютерная платформа была создана инженерами «Т-Платформы» с нуля - все её платы и механические компоненты являются собственными запатентованными разработками компании. По такому показателю, как вычислительная плотность на квадратный метр площади, T-Blade2 не имеет аналогов в мире. Так что российские производители, несмотря ни на что, могут гордиться что создали самый «компактный» суперкомпьютер в мире!

Как показывают исследования, в среднем вычислительная мощь настольных ПК отстает от уровня производительности суперкомпьютеров на 13 лет. Иными словами, по уровню производительности сегодняшние профессиональные ПК практически полностью соответствуют суперкомпьютерам 13-летней давности. Именно поэтому исследование рынка высокопроизводительных вычислений - хороший способ оценить направление развития массовых компьютеров будущего. Не так давно суперкомпьютеры преодолели планку производительности в один терафлопс (триллион операций с плавающей запятой в секунду - floating-point operations per second), и уже не за горами достижение ими производительности уровня петафлопс (квадриллион флопс, или 1015 операций с плавающей запятой в секунду), тогда как тера-вычисления останутся за среднестатистическим пользователем ПК…

Американский профессор и писатель Стив Чен попытался представить, какой уровень производительности будет достаточным для решения различных задач в будущем. По его мнению, для задач аэродинамики хватит производительности в несколько петафлопс, для задач молекулярной динамики потребуется уже 20 петафлопс, для вычислительной космологии - фантастическая производительность на уровне 10 экзафлопс (один экзафлопс равен квинтиллиону, или 1018 флопс), а для задач вычислительной химии потребуются еще более мощные процессоры. По мнению Стива Павловски, старшего заслуженного инженера-исследователя Intel, главного директора по технологиям и генерального менеджера по архитектуре и планированию подразделения Digital Enterprise Group корпорации Intel, компьютеры с производительностью в секстиллион, то есть 1021 операций с плавающей запятой в секунду появятся к 2029 году.

Стив Павловски считает, что проблемы и достижения сегодняшних суперкомпьютеров станут проблемами и достижениями завтрашних настольных ПК. Растет рынок высокопроизводительных вычислений - его объем уже достиг 10 млрд долл., а в некоторых секторах ежегодный рост продаж превышает 30%; растет и количество проданных во всем мире профессиональных высокопроизводительных компьютеров на базе процессоров Intel.

Всего 60 лет назад ламповый компьютер ENIAC, считавшийся технологической вершиной в области высокопроизводительных вычислений, имел всего 20 ячеек оперативной памяти. В середине 60-х годов появился суперкомпьютер CDC 6600, производительность которого достигла 9 мегафлопс. И только в 1997 году суперкомпьютер ASCII Red, содержавший 9298 процессоров Intel Pentium Pro, вышел на уровень производительности, равный терафлопс. Сегодня система на базе 464 четырехъядерных процессоров Intel Xeon серии 5300, занимающая гораздо меньший объем, обладает в шесть раз большей пиковой производительностью.

Когда же будет достигнута производительность уровня петафлопс (то есть тысячи терафлопс) или, как образно выражается Стив Павловски, будет преодолен «звуковой барьер» пета-производительности? И когда пета-вычисления станут базовыми для рядовых компьютерных систем?

Согласно оценкам, первые пета-суперкомпьютеры появятся уже в 2008-2009 годах - для определения этих сроков достаточно взять параметры производительности самых высокоскоростных компьютеров в мире, опубликованные на сайте www.top500.org, и экстраполировать их в соответствии с наблюдаемыми тенденциями роста. Однако для того, чтобы создать пета-компьютеры для массового рынка, предстоит решить немало серьезных проблем. С этой целью корпорация Intel вместе с партнерами проводит исследования по следующим направлениям:

  • производительность;
  • пропускная способность памяти;
  • межкомпонентные соединения;
  • управление электропитанием;
  • надежность.

По мнению Стива Павловски, для достижения уровня пета-вычислений с помощью современных технологий повышения производительности полупроводниковых микросхем потребуется создание процессора со 100 тыс. вычислительных ядер. Для практической реализации таких систем придется существенно повысить плотность размещения ядер на кристалле. Сегодня ведутся ожесточенные споры по поводу архитектуры будущих компьютеров - что лучше: множество небольших ядер, оптимизированных для ускорения параллельных вычислений, или несколько более крупных ядер, предназначенных для ускорения последовательных вычислений? Склоняясь к первому пути развития, исследователи понимают, что ставят перед собой трудоемкую задачу перевода софтверной индустрии на рельсы параллельного программирования...

Еще одна область исследований Intel - организация соединений вычислительных ядер между собой. Соединения посредством общей шины занимают меньше места, обладают высокой пропускной способностью и хорошо масштабируются, но неэффективны по энергопотреблению. Второй вариант - кольцевое соединение ядер для передачи сигналов, недостатком которого является низкий уровень масштабируемости при увеличении числа ядер. Третий вариант - матричная архитектура, когда каждое ядро связывается с каждым через цепочку соседних ядер.

Стоит вспомнить, что на осеннем Форуме Intel для разработчиков (IDF) в Сан-Франциско был представлен прототип процессора с 80 ядрами, который потенциально сможет обеспечить производительность уровня терафлопс для настольных компьютеров. По словам главного директора корпорации Intel по технологиям Джастина Раттнера, ориентировочная дата выхода подобного процессора на рынок - 2010 год или даже раньше. В основе прототипа процессора лежит архитектура x86 и такие разработки Intel, как система высокопроизводительных вычислений на микросхеме (HPC-on-chip), новая структура соединений элементов памяти, новые энергосберегающие технологии и т.д.

В 2006 году корпорация Intel объявила глобальную программу исследований, названную Tera-Scale Computing и объединяющую более 80 различных исследовательских проектов во всем мире, распределенных по трем основным направлениям: улучшение технологий проектирования и изготовления кремниевых кристаллов, оптимизация платформ и новые подходы к программированию. В своем выступлении на IDF Джастин Раттнер отметил, что необходимые шаги по направлению к тера-эре будут сделаны в течение ближайшего десятилетия. Например, современные исследования направлены на оптимизацию работы кэш-памяти, конфигурируемость ее в зависимости от решаемых задач и на разработку параллелизма обращения множества ядер к общей памяти. Корпорация Intel также планирует интегрировать в свои кристаллы цифровой самонастраивающийся беспроводной приемопередатчик широкого диапазона, не за горами появление прикладных устройств, основанных на принципах интегрированной кремниевой фотоники.

«Высокая скорость передачи данных между вычислительными ядрами и памятью - важная проблема, - подчеркивает Павловски. - Память должна обладать крайне высокой пропускной способностью. При этом если увеличивать тактовую частоту канала памяти, то достаточно скоро мы столкнемся с физическими ограничениями, которые налагают медные проводники». Одним из возможных путей преодоления этих ограничений является повышение числа каналов памяти, однако при этом увеличиваются размеры процессора и его себестоимость. «Нам придется искать более экзотические технологии передачи данных, - считает Павловски. - По нашим расчетам, для работы пета-процессоров потребуется память с пропускной способностью около 500 Гбайт/с».

Следующий важнейший аспект работы пета-компьютеров - это быстродействие системы ввода-вывода. Ученые корпорации Intel сейчас работают над тем, чтобы обеспечить скорость передачи данных до сотен гигабайт в секунду (Гбайт/с).

И все же самыми серьезными проблемами создания пета-устройств являются энергоснабжение и надежность. Мощность энергопотребления современного крупного центра обработки данных (ЦОД) составляет в среднем 9-10 МВт. Мощность, потребляемая компьютером со 100 тыс. ядер, может составить около 20 МВт. К этому надо прибавить мощность, необходимую для охлаждения пета-компьютеров. При нынешней стоимости электроэнергии расходы на энергоснабжение одной только пета-системы превысят 14,6 млн долл. в год. Именно поэтому вопрос эффективного использования электроэнергии крайне важен, что диктует применение энергосберегающих технологий на всех уровнях - от транзисторов до ЦОД:

  • на уровне транзистора - технологии напряженного кремния, технологии для снижения токов утечки и т.п.;
  • на уровне процессора - распределение нагрузки на основе многопоточности;
  • на уровне системы - высокоточное управление энергопотреблением в зависимости от загрузки системы;
  • на уровне ЦОД - использование усовершенствованных систем жидкостного и воздушного охлаждения, а также вертикальная интеграция теплоотводящих решений.

Мало того, исследователи прогнозируют возникновение совершенно неожиданных проблем, связанных с... космическими лучами. Ведь в пета-процессорах с высокой интеграцией вычислительных элементов будут использоваться столь малые транзисторы, что они будут подвержены влиянию энергичных частиц, составляющих космические лучи и способных вызвать случайный сбой данных при попадании в транзистор. По мере повышения плотности размещения транзисторов на кристалле количество таких случайных сбоев будет быстро расти. «Если число ядер на кристалле достигнет 100 тыс., такие сбои станут неуправляемыми, - считает Павловски. - Они будут оказывать все большее влияние на работу системы, и с ними нужно будет бороться. Мы уже начали исследования в этом направлении». Перспективные технологии обеспечения надежности включают использование контроля четности и кодов корректировки ошибок, а также применение избыточных ядер для проверки результатов вычислений основных ядер системы.