bigpo.ru
добавить свой файл
1

РАЗВИТИЕ ТЕЛЕКОММУНИКАЦИОННОЙ СРЕДЫ САМАРСКОГО ЦЕНТРА ВЫСОКОПРОИЗВОДИТЕЛЬНЫХ ВЫЧИСЛЕНИЙ

DEVELOPMENT OF TELECOMMUNICATION ENVIRONMENT OF THE SAMARA HIGH PERFORMANCE COMPUTING CENTER

В.П.Шорин (1), В.А.Сойфер (2), Н.Л.Казанский (3), В.В.Кравчук (3), В.И.Санчугов (1), В.А.Фурсов (1)

(1) Президиум Самарского научного центра РАН,
(2) Самарский государственный аэрокосмический университет им. С.П.Королева,

(3) Институт систем обработки изображений РАН, Самара

Тел.: 33-49-31, 42-37-08, факс: 32-55-34, e-mail: fursov@smr.ru


Самарский центр высокопроизводительных вычислений формировался поэтапно. На первом этапе (1999 г.) был создан кластер Института систем обработки изображений (ИСОИ) РАН, включающий четыре стандартных двухпроцессорных компьютера с процессорами Intel Pentium II и сетевыми адаптерами Fast Ethernet (100 Mb/s). Общие ресурсы кластера составляли 8 процессоров, 2 Gb оперативной памяти, 36 Gb дисковой памяти, пиковая производительность 3,4 Gflops.

В 2000 г. параллельно был создан высокопроизводительный кластер на площадях Президиума Самарского научного центра РАН в составе пяти SMP-машин: двух рабочих станций AlphaPC 264DP, 667 MHz и трех персональных компьютеров Pentium III, 600 MHz, связанных высокопроизводительной сетью Myrinet. Ресурсы кластера: 10 процессоров, объем оперативной памяти Alpha-станций 2 Gb и 1 Gb, персональных компьютеров – по 512 Mb каждый, пиковая производительность кластера 8,9 Gflops.

Кластер СНЦ РАН показал существенно более высокие характеристики реальной производительности. Они в значительной степени обусловлены использованием сетевой технологии Myrinet. Как коммутируемая сеть, аналогичная по структуре сегментам Ethernet, соединенным с помощью коммутаторов, Myrinet может одновременно передавать несколько пакетов со скоростью 1.28 Гбит/с. В отличие от некоммутированных Ethernet-сетей, которые разделяют общую среду передачи, совокупная пропускная способность сети Myrinet возрастает с увеличением количества машин.

С учетом изложенного, а также того обстоятельства, что при создании кластера СНЦ РАН была предусмотрена избыточность коммутируемой сети по числу подключаемых узлов, было принято решение об интеграции ресурсов кластеров ИСОИ РАН и СНЦ РАН. Для реализации этой идеи с минимальными затратами необходимо было обеспечить совместимость кластеров, для чего необходимо перевести кластер ИСОИ РАН на быстродействующую сетевую технологию Myrinet.

Проект создания интегрированного регионального центра коллективного пользования путем объединения вычислительных мощностей кластеров ИСОИ РАН и СНЦ РАН был поддержан грантами ФЦП "Интеграция" и РФФИ. В результате интеграции модернизированного кластера СНЦ РАН и созданного ранее 8-ми процессорного кластера ИСОИ РАН создан региональный центр коллективного пользования, вычислительное ядро которого представляет собой единую 20-процессорную вычислительную систему (16 процессоров Pentium и 4 процессора ALPA 21264).

Одновременно осуществлялась модернизация корпоративной сети науки и образования с целью развития инфраструктуры удаленного доступа к ресурсам Центра высокопроизводительной обработки информации СНЦ РАН и повышения пропускной способности каналов. Корпоративная сеть организаций науки и образования к началу 2000 г. объединяла локальные сети около двадцати организаций. В настоящее время устранены имевшиеся "узкие" места, вся сеть переведена на 100 Mb/c, произведено подключение ряда новых организаций РАН. В частности, к корпоративной сети науки и образования посредством волоконно-оптического кабеля длиной 1,98 км подключен Институт проблем управления сложными системами (ИПУСС) РАН. Подключение Самарской государственной архитектурно-строительной академии к Самарской городской сети науки и образования было произведено посредством Ethernet соединения со скоростью 10 Мбит/с. Локальная сеть Самарского филиала ФИАН (СФ ФИАН) соединена по оптоволоконному кабелю с центральным узлом Самарской телекоммуникационной сети науки и образования (SamaraNet). Каналообразующее оборудование работает на скорости передачи цифрового потока до 100 Мбит/с (FastEthernet).

Крупным шагом в создании предпосылок для дальнейшего развития телекоммуникационной среды Самарского академического центра высокопроизводительных вычислений явились организационные мероприятия. Советом ректоров высших учебных заведений Самарской области и Президиумом Самарского научного центра РАН 5 апреля 2001 г. принято совместное решение о расширении Самарской региональной компьютерной сети науки и образования, регионального центра высокопроизводительной обработки информации, а также существующих возможностей их совместного использования для формирования единого информационного пространства науки и образования Самарской области, развития дистанционных методов обучения, удаленного доступа к ресурсам кластера вычислительных машин. Роль головного исполнителя проектов по созданию и развитию регионального сегмента компьютерной информационной среды академических и вузовских организаций г. Самары возложена на Президиум Самарского научного центра РАН.

Подготовка кадров для центра высокопроизводительной обработки информации осуществляется на базе Самарского государственного аэрокосмического университета (СГАУ). На кафедре "Техническая кибернетика" СГАУ в рамках специальности 010200 открыта специализация "Математическое обеспечение компьютерных телекоммуникационных систем". В учебном плане специализации предусмотрены следующие дисциплины: методы параллельных вычислений, технология сетевого программирования, параллельное программирование, криптография, проектирование баз данных в САПР (распределенные базы данных), распределенные информационно-вычислительные (геоинформационные) системы.

Для использования ресурсов Центра высокопроизводительной обработки информации СНЦ РАН в учебном процессе на кафедре "Техническая кибернетика" организован компьютерный класс удаленного доступа к ресурсам Центра. Наличие оптоволоконного канала между СГАУ и СНЦ РАН обеспечивает возможность оперативного решения учебно-исследовательских задач. Для начальной подготовки в области параллельных и распределенных вычислений компьютеры, подключенные к локальной сети, используются также в качестве узлов кластера. Создано специальное программное обеспечение для выполнения научных расчетов на кластере в режиме удаленного доступа с использованием платформы Java Enterprise Edition, которое используется также для обучения технологиям распределенных и параллельных вычислений.