Федеральное государственное бюджетное учреждение науки Межведомственный суперкомпьютерный центр Российской академии наук (МСЦ РАН) | |
---|---|
| |
Международное название | Joint Supercomputer Center of the Russian Academy of Sciences |
Основан | 1996 |
Директор | Савин, Геннадий Иванович |
Аспирантура | есть |
Докторантура | есть |
Расположение |
![]() |
Юридический адрес | 119991, Москва, Ленинский проспект, 32а |
Сайт | jscc.ru |
Межведомственный суперкомпьютерный центр Российской академии наук — государственное научное учреждение, расположенное в Москве, с филиалами в Санкт-Петербурге (СПбФ МСЦ РАН) и Казани (КазФ МСЦ РАН).
МСЦ РАН создан 26 декабря 1995 года совместным решением Президиума Российской академии наук (РАН), Министерства науки и технологий Российской Федерации, Министерства образования Российской Федерации и Российского фонда фундаментальных исследований (РФФИ)[1].
В 1998 году для центра были выделены помещения в новом здании Президиума РАН. В 1999 году центр был открыт.[2]
МСЦ участвует в двух общеевропейских проектах:[3]
Коллектив МСЦ РАН состоит из высококвалифицированных научных сотрудников, программистов и инженеров. В настоящее время в МСЦ РАН работают 95 сотрудников, в том числе 3 академика, 2 члена-корреспондента РАН, 9 докторов и 19 кандидатов наук.
Директор центра — Шабанов Борис Михайлович[4].
Центр имеет два филиала в Санкт-Петербурге и Казани. При МСЦ работают базовые кафедры Московского физико-технического института (МФТИ), Московского института электронной техники (МИЭТ), Московского института радиотехники, электроники и автоматики (МИРЭА), на которых обучаются более 100 студентов.
С мая 2004 года совместно с Научно-исследовательским вычислительным центром МГУ выпускает список Тор50 самых мощных компьютеров СНГ.[5]
В МСЦ РАН есть суперкомпьютеры:[6]
Пиковая производительность — 523.8 ТФЛОПС. Производительность на тесте LINPACK — 375.7 ТФЛОПС. В состав кластера входит 207 вычислительных узлов. Каждый вычислительный узел имеет в своем составе 2 процессора Xeon E5-2690, 64 ГБ оперативной памяти, два сопроцессора Intel Xeon Phi 7110Х.
МВС-10П является энергоэффективным суперкомпьютером, что подтверждено результатами рейтинга Green500 (30 место, 1949 МФЛОПС/Ватт).
Все вычислительные узлы объединяются в 3 сети:
коммуникационную и транспортную сеть на базе FDR Infiniband; сеть мониторинга и управления на базе Gigabit Ethernet; управления заданиями на базе Gigabit Ethernet. На комплексе установлены две системы управления прохождением задач: СУППЗ и SLURM.
МВС-100K в ноябре 2008 г. занял 36 место в списке Top500. На сегодняшний день производительность — 227.94 ТФЛОПС, производительность на тесте LINPACK — 119.93 ТФЛОПС. В состав суперкомпьютера входят 1275 вычислительных модуля, каждый из которых оснащён двумя четырёхъядерными/шестиядерными процессорами Intel Xeon. Для объединения узлов кластера в единое решающее поле используется технология Infiniband.[7]
Суперкомпьютер (СК) «МВС-100K» предназначен для решения сложных научно-технических задач.
Пиковая производительность СК составляет 227,94 TFlops.
Программные и аппаратные средства СК «МВС-100K» позволяют решать одну задачу с использованием всего вычислительного ресурса, а также разделять решающее поле на части требуемого размера и предоставлять их нескольким пользователям.
В состав технических средств СК «МВС-100K» входят:
Вычислительные модули СК «МВС-100K» построены на основе серверов HP Proliant. Всего используются модули четырёх разных типов:
Кроме того, все вычислительные узлы оборудованы:
Вычислительные модули связаны между собой высокоскоростной коммуникационной сетью Infiniband DDR, транспортной и управляющей сетями Gigabit Ethernet.
Коммуникационная сеть Infiniband DDR предназначена для высокоскоростного обмена между ВМ в ходе вычислений. Сеть реализована двумя уровнями коммутаторов. Скорость двунаправленных обменов данными между двумя ВМ с использованием библиотек MPI находится на уровне 1400 Мбайт/сек. Латентность между двумя соседними узлами составляет 3.2 мкс, самыми дальними 4.5 мкс.
Транспортная сеть Gigabit Ethernet предназначена для соединения решающего поля с управляющей станцией, параллельной файловой системой и файл-сервером.
Управляющая сеть, построенная с использованием технологии Gigabit Ethernet, предназначена для запуска программ на счёт вычислительными модулями, а также для передачи служебной информации о ходе вычислительного процесса и состоянии подсистем.
Программное обеспечение «МВС-100K» поддерживает все этапы разработки параллельных программ, а также обеспечивает выполнение процессов обработки данных на решающем поле. При выборе программного обеспечения использовался принцип преемственности с системой «МВС-6000IМ» для облегчения переноса программ на новый кластер.
На «МВС-100K» установлено следующее программное обеспечение:
На кластере также установлены средства профилирования параллельных программ, инструменты параллельного администрирования, управления и тестирования кластера, позволяющие осуществлять проверку состояния и диагностику узлов кластера, создание и модификацию пользовательских бюджетов на узлах кластера, параллельные операции над файлами и выполнение операций на всех узлах кластера.
МВС-15000BM с пиковой производительностью 10,1 TFlops в июне 2006 года занял 70 место в списке Top500 и стал самым мощным российским суперкомпьютером. В его состав входило 574 двухпроцессорных узла на базе процессоров IBM PowerPC 970FX, работающих на частоте 2,2ГГц и объединённых сетью Myrinet. В настоящее время в рамках программы РИСП он превращён в распределённую систему МВС-15000BMD, части которой установлены во Владивостоке (СЦ ИАПУ ДВО РАН), Казани (КНЦ РАН), Москве (МСЦ РАН), Санкт-Петербурге (филиал МСЦ РАН) и Черноголовке (ИПХФ РАН).
Суперкомпьютер (СК) «MBC-6000IM» предназначен для решения сложных научно-технических задач.
Пиковая производительность СК «MBC-6000IM» составляет 1,64 TFLOPS. Общий объем оперативной памяти решающего поля — 256 Гбайт. Потребляемая мощность составляет 50 кВА.
Программные и аппаратные средства СК «MBC-6000IM» позволяют решать одну задачу с использованием всего вычислительного ресурса, а также разделять решающее поле на части требуемого размера и предоставлять их нескольким пользователям. В состав технических средств СК «MBC-6000IM» входят:
1. 2 процессора Intel® Itanium 2® 2. Вентиляторы с горячей заменой 4. Блок питания с горячей заменой 5. Дисковые приводы с горячей заменой 6. 12 разъемов памяти 7. 4 разъема PCI-X для устройств ввода/вывода 8. Плата управляющего процессора (опция)
Основные характеристики вычислительных модулей HP RX-2620:
Платформа ВМ Сервер HP RX-2600 поддерживает два процессора Intel® Itanium® 2, соединенных с контроллером памяти и ввода/вывода набора микросхем HP ZX1 посредством системной двунаправленной 128-битной шины. Общая пропускная способность системной шины 6.4 Гбайт/с. Контроллер памяти и ввода/вывода набора микросхем HP ZX1 Chipset:
соединяет процессоры с шиной содержит котроллер памяти содержит контроллер кэша ввода/вывода Адаптер ввода/вывода набора микросхем HP zx1 Chipset I/O — один адаптер ввода/вывода поддерживает:
PCI PCI-X AGP Пиковая производительность одного ВМ составляет 6,4 млрд операций с плавающей точкой с двойной точностью в секунду.
Вычислительные модули связаны между собой высокоскоростной коммуникационной сетью Myrinet (пропускная способность 2 Гбита/сек), транспортной сетью Gigabit Ethernet и управляющей сетью Fast Ethernet.
Коммуникационная сеть Myrinet предназначена для высокоскоростного обмена между ВМ в ходе вычислений. Сеть реализована на базе 128 портового полносвязного коммутатора. При двунаправленном обмене данными между двумя ВМ с использованием протоколов MPI достигается пропускная способность на уровне 450—500 Мбайт/сек.
Транспортная сеть Gigabit Ethernet предназначена для соединения решающего поля с управляющей станцией, параллельной файловой подсистемой и файл-сервером NetApp F840.
Сеть Fast Ethernet предназначена для начальной загрузки программ и данных в ВМ, а также для передачи служебной информации о ходе вычислительного процесса и состоянии подсистем.
Комплект программного обеспечения СК «MBC-6000IM» включает:
Компоненты общего программного обеспечения (ОПО) СК «MBC-6000IM» поддерживают все этапы разработки параллельных программ пользователей, а также обеспечивают непосредственно выполнение процессов содержательной обработки на решающем поле. Они функционируют на ВМ и управляющей ЭВМ.
В состав ОПО СК «MBC-6000IM» входят:
При выборе компонентов программного обеспечения используется принцип преемственности с системами МВС-1000М и МВС-15000BM.
Подсистема удаленного управления и непрерывного мониторинга работы СК «MBC-6000IM» обеспечивает:
Подсистема коллективного доступа к ресурсам суперкомпьютера СУППЗ обеспечивает:
Коммуникационная среда Myrinet поддерживается в современных реализациях интерфейса параллельного программирования MPI. В качестве программных средств коммуникационной среды Myrinet используется коммуникационная система GM. В ее состав входят:
Программное обеспечение параллельной файловой подсистемы обеспечивает:
В состав программного обеспечения узлов ввода-вывода (ПОУВВ) входят:
Hewlett Packard SuperDome (64 CPU) является симметричным мультипроцессором с производительностью 141,3 GFlops и предназначен для решения задач, требующих больших вычислительных ресурсов и большого объема общей памяти. Система построена на процессорах PA-8600 550 МГц, работающих c 64 Гбайт общей памяти.
МВС 1000М (768 CPU) предназначен для решения сложных научно-технических задач. Его пиковая производительность 1 TFlops. Суперкомпьютер состоит из 6 базовых блоков, каждый из которых включает в себя 64 двухпроцессорных модуля. Модули собраны на базе процессоров Alpha21264A, 667 MHz и объединены высокоскоростной сетью Myrinet (2 Gbit/s), используемой только для межпроцессорных коммуникаций во время параллельных вычислений.
Hewlett Packard V2250 (16 CPU) является симметричным мультипроцессором с пиковой производительностью 16 GFlops.
Кластер INTEL XEON («KRYPTON») предназначен для исследования новых технологий в области GRID и параллельных файловых систем. Суммарная пиковая производительность Кластера из 16-ти процессоров составляет 76,8 GFlops.
Кластер AMD Athlon MP («KAPPA») предназначен для обучения студентов технологиям высокопроизводительных вычислений. Суммарная пиковая производительность Кластера из 16 процессоров составляет 49 GFlops.
МСЦ 2000 (32 CPU). Специализированный кластер для разработки параллельного программного обеспечения, состоящий из 16 двухпроцессорных узлов на основе процессора Intel Pentium III 550 MHz. Узлы соединены сдвоенным Fast Ethernet через два коммутатора.
Система визуализации на рабочих станциях J2240 и J5000 фирмы Hewlett Packard с мощными графическими акселераторами трехмерной графики.
В августе 2012 года центр объявил конкурс на разработку суперкомпьютера с производительностью 10 ТФлопс диапазона.[8]
![]() |
Это заготовка статьи по информатике. Вы можете помочь проекту, дополнив её. |
В этой статье не хватает ссылок на источники информации. |
Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".
Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.
Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .