vk_logo twitter_logo facebook_logo googleplus_logo youtube_logo telegram_logo telegram_logo

Фотоэкскурсия в дата-центр компании "Мегафон-Сибирь" 19

Дата публикации: 22.12.2009
Количество просмотров: 18943
В 2008 – 2009 гг. компании принялись с энтузиазмом меряться мощностью своих дата-центров. Несмотря на сокращение финансирования, в этом году несколько раз с шумихой открывали "самый большой дата-центр за Уралом". Центр обработки данных компании "Мегафон-Сибирь" не стал исключением.

На прошлой неделе "Мегафон-Сибирь" запустил в эксплуатацию собственный дата-центр общей площадью 2 тыс. кв. м. и стоимостью 800 млн руб. Дата-центр был построен за 1,5 года, планируется, что он обеспечит потребности компании до 2014 г. Там разместится коммутационное оборудование, которое будет контролировать работу всех базовых станций "Мегафона" в Западной Сибири, биллинговые и другие технологические системы, сеть хранения данных SAN, сеть передачи данных, офисные информационные системы и т.д.

Технические и эксплуатационные параметры дата-центра "Мегафон-Сибирь"


Разрешенная мощность

1,6 МВт

Суммарная мощность дизель-генераторных установок

1,9 МВт

Общая площадь

2 тыс. кв. м.

Площадь фальшпола

1 тыс. кв. м.

Максимальное количество шкафов с оборудованием зала ЦОД

100

Максимальная мощность на шкаф зала ЦОД

70 кВт

Максимальное количество шкафов зала коммутации

240

Максимальная мощность на шкаф зала коммутации

6 кВт

Способ отвода тепла

Чиллерные установки

Резервирование климатических систем

2N (для чиллеров n+1)

Резервирование источников бесперебойного питания

2N+1

Резервирование дизель-генераторных установок

N+1

Максимальное время автономной работы без дизель-генераторной установки (для критичных систем)

До 4-х часов

Работа дизель-генераторной установки без дозаправки при полной загрузке

До 12 часов

Пропускная способность транспортной сети

Более 400 Гбит/с



Возле здания дата-центра стоят охлаждающие чиллеры. Сейчас дата-центр заполнен только на треть, поэтому оборудование охлаждают всего два чиллера. В будущем планируется добавить еще два. Чиллер охлаждает за счет температуры окружающей среды, охлаждающий компрессор включается только когда на улице теплее 4 градусов. Поскольку в Сибири холода стоят большую часть года, компрессор включается редко. Работа чиллеров позволяет за час экономить около 300 киловатт (примерно 600 рублей).

Между чиллерами есть место для установки еще двух агрегатов.

Дата-центр питается от двух трансформаторов мощностью 2 МВт каждый.

В случае отключения электроэнергии дата-центр будет питаться от двух дизель-генераторных установок. В дата-центре всегда находится запас топлива, достаточный для работы генератора в течение 12 часов.


Центр оснащен системами газового пожаротушения. При этом, система пожаротушения проведена как в помещениях, так и под фальшполами.

 

Система пожаротушения устроена так, что она не сработает, если в помещении находятся люди. Но, на всякий случай, в помещениях имеются противогазы.

ИБП APC Symmetra;

Аккумуляторы ИБП APC Symmetra.

Панель управления ИБП APC Symmetra. Сотрудники центра шутят, что оранжевая кнопка означает End Of Megafon.

Шкаф батарейных предохранителей.

Серверная дата-центра заполнена чуть меньше чем на половину. В ней размещаются собственные серверы компании. Однако, если будет заинтересованность клиентов, компания готова оказывать услуги хостинга.

Между серверными шкафами стоят кондиционеры. Мощность каждого – в 30 раз больше обычных бытовых кондиционеров.


Высота фальшпола – 1 метр. Под ним проложено оптоволокно и системы вентиляции. На случай затопления пол под фальшполом под наклоном – вода будет собираться в одном месте и стекать в канализацию. Фальшпол выдерживает вес 2,5 тонны на кв. м. Высота потолков в дата-центре – 12 метров. До крыши расположен фальшпотолок и водоотводящая мембрана.


В это помещение заходит холодная вода из чиллеров – дальше она поступает в систему кондиционирования.

На случай полного выхода из строя чиллерной установки в системе предусмотрены два резервуара с водой по 800 литров. Вода в них поддерживается в постоянной температуре 7 градусов, этого хватит для автономной работы дата-центра в течение 15 минут – ровно столько, чтобы корректно завершить работу всех серверов и попрощаться с жизнью.

ИБП Riello.

Зал ЭПУ (электропитающие установки) технического департамента.

Зал ЭПУ, как и другие залы, заполнен примерно на половину – его будут наполнять оборудованием до 2012 г.
От редакции: если у вас есть чем поделиться с коллегами по отрасли, приглашаем к сотрудничеству
Ссылка на материал, для размещения на сторонних ресурсах
/articles/article/17411/fotoekskursiya-v-data-tsentr-kompanii-megafon-sibir-.html

Комментарии:(19) комментировать

22 декабря 2009 - 23:34
Navu:
#1

В 2008–2009 гг. компании принялись с энтузиазмом меряться мощностью своих дата-центров. Несмотря на сокращение финансирования, в этом году несколько раз с шумихой открывали "самый большой дата-центр за Уралом". Центр обработки данных компании "Мегафон-Сибирь" не стал исключением.


Полный текст новости


22 декабря 2009 - 23:34
pvl:
#2

афигеть O_O


23 декабря 2009 - 1:02
Гость_Amonius_:
#3

Обссы начинают Цодами мерятся :) А потом у кого вышка выше стоит ?


23 декабря 2009 - 1:57
Гость_mix_:
#4

катэками - как индейцы пусть померяться!!!


23 декабря 2009 - 3:30
Гость_Bob Smith_:
#5

Вообще круто, но есть нестыковки - например, если такой высокий фальшпол, то лучше бы было использовать технологию охлаждения холодный-горячий коридор. Надежнее, нагляднее, да и дешевле имхо. Странное решение фальшпотолка - зачем ставить светильники армстронг над шкафами, и дополнять их подвесными светильниками над рабочей зоной? Опять же непонятно, зачем 12-ти метровый потолок, а эффективно использовать только 5 метров (метр фальшпол, три от фальшпола до фальшпотолка, и еще метр на пожарку и мембрану). Ну это наверное особенности местного темперамента. Хотя чистая высота потолка могла достаться вместе с купленным зданием...
Но вот куда девать 70(!) киловатт энергии шкафа ЦОД (такую мощность не только поглотить, но и отвести от нее тепло в маштабах стандартного шкафа нереально) и что втыкать в 6 киловаттную коммутационную стойку - для меня загадка.
А вообще, в статью бы побольше фоток, и внутренностей 19" шкафов, и подвод электричества, и прочих техпомещений!!!


23 декабря 2009 - 14:15
Гость_Олег, Черкассы, Украина_:
#6

Интересно было бы узнать катастрофоустойчивость данного ЦОД

TIERx


23 декабря 2009 - 16:50
Гость_Pastukhova_:
#7

Насколько мне известно, TIER 3


23 декабря 2009 - 17:43
cmhungry:
#8

6квт коммутационная стойка - два кота 6509, например, по 2700вт каждый. Вот и все.

70квт на шкаф в ЦОД - это серьезнее. Но - современный сервер 1U 4 квад-ксеона рассеивает в воздух 800вт. А таких можно поставить 40 штук в шкаф, с "дельта-фи" это будет под 60квт сразу.


23 декабря 2009 - 22:04
Гость_ГтсдуВут_:
#9

Чот мне туда на работу захотелось. Куды резюме слать?


24 декабря 2009 - 7:04
packetizer:
#10

Эпик файл.
Не вижу на шкафах идентификаторов ряда шкафов и шкафа в ряду.
Как идентифицировать межшкафовые соединения ?


Обсудить на форуме

Оставлять комментарии могут только зарегистрированные пользователи

Зарегистрироваться