Как найти серверы компании.

В России - самая значительная. Это не только удобный поисковик, но и облачное хранилище данных, электронная почта, навигационные карты, служба заказа такси и многое другое. А где же хранится весь этот объем информации системы? Где находится сервер "Яндекса" физически? В этой статье мы попробуем это выяснить.

Что говорит "Яндекс"?

Печальный факт: представители самой корпорации не указывают на своих ресурсах, где находится сервер "Яндекса" физически. Широкому кругу аудитории известен только один факт - дата-центры в своем большинстве открыты в России. Некоторые из них - в столице.

Кроме того, даже подавляющее число сотрудников компании не знает, где конкретно находятся дата-центры "Яндекса". А уж попасть туда затруднительно не только постороннему человеку, но даже и работнику этой корпорации.

Где был первый сервер "Яндекса"

А вот своей историей сотрудники и представители компании охотно делятся. Где находился главный сервер "Яндекса" в 1997 году, когда был запущен сайт? Вы удивитесь, но он просто стоял под столом у одного из первых разработчиков - Д. Тейблюма. Вскоре после открытия сайта "Яндекс.ру" понадобилось установить второй сервер, а потом уже и третий. Тогда-то сотрудники "Яндекса" задумались о расширении.

Нет, дело не шло об открытии собственного дата-центра. В этом не было необходимости: команда "Яндекса" исчислялась всего десятью сотрудниками, а для умещения индекса всего русскоязычного интернета вполне хватало 4 Гб SCSI-диска. Отчего в первые три года работы ресурса серверы размещались в одной стойке дата-центра "МТУ-Интел".

В 2000-м, когда было создано ООО "Яндекс", оно арендовало уже четыре стойки у данной компании. Это 40 личных серверов. Они, кстати, и стали основой уже для собственного дата-центра, который был открыт в первом офисе ресурса, расположенном на ул. Вавилова в Москве (вычислительный центр РАН - Российской академии наук).

Сегодня эта "серверная" уже не функционирует. Современный "Яндекс" поддерживает масштабную сеть дата-центров, которые работают независимо от офисов. Именно они в настоящее время помогают пользователям ресурса 24 часа в сутки и 7 дней в неделю иметь высокоскоростной доступ к необходимой информации. Подумать только, сегодня департамент эксплуатации "Яндекса" устанавливает в день по 2-3 сервера в собственных дата-центрах! И этот показатель не окончательный - корпорация не думает останавливаться в своем развитии.

Какой он - дата-центр "Яндекса"?

Где находится сервер "Яндекс.диска", представители компании нам, увы, не расскажут. Зато они с радостью готовы поведать, как выглядит их стандартный дата-центр изнутри:


Как найти серверы компании

Если вы самолично хотите определить, где находится сервер "Яндекса", то для этих целей проще установить на свой компьютер соответствующее ПО. Пользователи советуют программы Traceroute, Neotrace. Мы же рекомендуем вам устанавливать подобное ПО только в случае, когда вы на 100 % уверены в его безопасности.

По словам опробовавших приложения, данные программы представляют исчерпывающую информацию о физическом местонахождении серверов "Гугла", Yahoo, "Яндекса". Пользователю доступна карта, информация о координатах объекта (долгота, широта), его адрес.

Где именно в России находятся серверы "Яндекса"

В заключение представим информацию от пользователей, самостоятельно выяснивших местонахождение серверов системы. Однако данные эти неофициальны, поэтому доверять им на 100 % не имеет смысла.

Итак, где находится сервер "Яндекса"? Все найденные дата-центры расположены в Москве:

  • Ул. Вавилова, 40а.
  • Ул. Краснознаменная, 2.
  • Ул. Краснознаменная, 12.
  • Ул. Курчатова, 1.
  • Ул. Нежданова, 2а.

Некоторые исследователи утверждают, что серверы находятся в столице также на ул. Льва Толстова и на ул. Самокатной, а также в городе Ивантеевка.

Где точно находятся серверы "Яндекса", широкой общественности доподлинно не известно. Представители компании утверждают, что большинство их дата-центров сосредоточены на территории Российской Федерации. Пользователи же предлагают программы, которые способны определить точное (до адреса) расположение серверов того или иного ресурса, и даже делятся результатами своих исследований в Сети.

Этой весной мы получили разрешение на эксплуатацию нашего нового дата-центра. Первого, для которого всё, даже здание, команда Яндекса спроектировала и построила с нуля. За те 18 лет, которые люди ищут в интернете Яндексом, мы прошли большой путь от сервера под столом одного из наших разработчиков до постройки дата-центра, где используем оборудование собственной разработки. По дороге у нас появилось несколько дата-центров в России, в которые мы перестроили прекратившие когда-то свою работу заводы и цеха.

Когда мы выбирали место, где можно строить дата-центр с нуля, холодный климат был одним из важнейших факторов. Но именно в процессе этой стройки мы нашли технологическое решение, которое позволяет нам эксплуатировать ДЦ в более теплом климате. Сейчас мы планируем построить наш следующий дата-центр во Владимирской области. И теперь у нас есть все возможности создать в России дата-центр, который станет одним из самых передовых в мире.

В этом посте мы хотим рассказать, как мы проектировали ДЦ, с какими сложностями столкнулась наша команда в процессе строительства, как проходила пуско-наладка, в чем особенности дата-центров Яндекса и как устроена рекуперация тепла, о которой вы уже могли слышать.

Необходимость

Как мы , архитектура сервисов компании позволяет организовывать резервирование на уровне дата-центров, а не подсистем, что дает бóльшую гибкость при выборе решений и позволяет снизить избыточность систем и соответствующие затраты.

Дата-центр и серверная архитектура проектируются как единая система, поэтому параметры функционирования инженерных систем могут отличаться от общепринятых - можно, в частности, использовать альтернативные источники бесперебойного питания и отказаться от громоздких технических решений по охлаждению за счет расширения допустимого температурного диапазона. Все это ведет к повышению эффективности и понижению совокупной стоимости владения инфраструктурой.

Одна из метрик эффективности работы дата-центра - PUE . Впрочем, говоря о наших ДЦ, мы не собираемся ставить ее во главу угла. Во-первых, нам незачем меряться PUE с коллегами, а во-вторых, существующие разногласия в методике измерения этого параметра не позволяют проводить сравнение даже между нашими собственными ДЦ.

Однако сама сущность параметра PUE исключительно важна для Яндекса. Коммерческие дата-центры могут позволить себе не скупиться на строительство и оснащение, понимая, что в конечном итоге за все заплатит клиент. В нашем случае мы являемся сами себе клиентом, поэтому низкая совокупная стоимость владения ДЦ (ТСО), пожалуй, самый важный критерий при выборе решений в компании.

И конечно же, нашей команде хочется не только увеличивать площади под установку новых стоек, но и чувствовать профессиональную гордость за то, что мы делаем.

Идея

До начала проектирования финского дата-центра мы успели построить (и частично закрыть) 10 дата-центров. При строительстве очередного ДЦ мы каждый раз старались использовать наиболее интересные решения, которые появлялись на рынке в тот момент. Это привело к большому разнообразию реализаций, зато теперь позволяет нам выбирать наилучшие решения не на основании рекламных каталогов, а используя накопленный в компании опыт и результаты собственных экспериментов.

Основная идея, лежащая в проекте финского ДЦ, проста: это применение прямого фрикулинга 100% времени. Прямой фрикулинг (охлаждение серверов наружным воздухом) дает возможность отказаться от использования не только теплообменников с охлажденной водой или другим подходящим теплоносителем, но и от более простых устройств, наподобие колеса Киото , которое стоит в одном из наших ДЦ. В новом дата-центре мы берем воздух с улицы, прогоняем его через серверы и выпускаем на улицу, попутно отбирая часть для смешивания в холодное время года. Наше серверное оборудование сегодня спокойно работает не только в диапазоне 20–24 градуса, который совсем недавно был тем самым разрешенным «окном ASHRAE», но и при более высоких и низких температурах. Поэтому незачем устанавливать капризные и дорогие системы охлаждения, можно просто выбрать регион, в котором среднегодовая температура пониже, а в самые жаркие дни распылять воду, чтобы добавлением влаги снизить на несколько градусов температуру входного воздуха - это называется адиабатическим охлаждением.


Камера адиабатики и каплеуловители за ней

Те из вас, кто изучал конструкцию ДЦ Facebook, которая неоднократно публиковалась в интернете, найдут много аналогий. Но надо сразу оговорить, что это только совпадение. Когда концепт нашего ДЦ был уже готов, нам довелось съездить в гости в один из ДЦ социальной сети, и мы с удивлением узнали, что коллеги только что реализовали проект, практически идентичный нашему.

Конечно же, специфика Орегона и Финляндии повлияла на различия, но принцип обдува воздухом с улицы настолько прост и очевиден, что в сходстве концепций нет ничего удивительного. С другой стороны, мы с удовольствием отметили, что кое в чем наш проект будет даже интереснее.


Дизель-генераторы и динамические ИБП

Например, менее сложная система адиабатического охлаждения и использование динамических роторных ИБП (ДРИБП) вместо сочетания дизелей и классических батарейных ИБП.

Как видно из иллюстрации, холодный воздух попадает с улицы (с правой стороны картинки) в камеры смешения, откуда после фильтрации нагнетается вентиляторными стенами через модуль увлажнения вниз, в холодные коридоры.


Первый ряд фильтров


Второй ряд фильтров и приточные вентиляторы

Из горячих коридоров воздух попадает в пространство второго этажа, играющего роль своеобразного буфера, откуда часть направляется в камеры смешения.


Камера смешения внешнего и отработанного воздуха для достижения оптимальной температуры

Не используемый в смешении горячий воздух вытяжными вентиляторами выводится с другой стороны здания.


Внутри «горячего коридора»

Решение действительно очень простое, однако оно подразумевает использование оборудования, которое умеет работать при соответствующей температуре и влажности, что трудно достижимо для коммерческих дата-центров.


Серверы в работе

Как показал первый опыт эксплуатации, у нас есть еще значительный потенциал для улучшений. Мы поняли, что можно упростить конструктив здания, полностью отказаться от использования воды в ДЦ и, наконец, расширить географию строительства вплоть до центральных регионов России. Благодаря этому мы сможем построить наш следующий дата-центр во Владимирской области, климат которой значительно теплее финского.

Почему Финляндия?

Этот вопрос является вторым по популярности, на который нам приходится отвечать. Ответ же настолько прост, что рассказывать о нем даже немного неловко.

Дело в том, что неофициальным талисманом Яндекса является лось («Наш лось!»). Во всем мире есть две страны, в которых ценят и лелеют этих животных, - Швеция и Финляндия. Но так как в Швеции уже построился Facebook, нам оставались наши северные соседи. Из всей страны мы выбрали город, на гербе которого был лось. Так жребий был брошен, и мы решили строиться в Мянтсяля.

Однако одного лося все же недостаточно. Важнейшими критериями, по которым производился отбор на тот момент, были доступная электрическая мощность (высокостабильная энергосеть Финляндии построена много лет назад для ЦБК, которые чувствительны к качеству питающего напряжения), хорошая доступность оптических линий, жаждущие работы инженеры и, конечно же, холодный северный климат, в условиях которого можно было отказаться от чиллеров и честно использовать любимый фрикулинг.

Нельзя не отметить, что работа с местными партнерами оказалась истинным удовольствием. Так, разрешение на строительство получается в течение одного месяца (sic!), а дорога, линии водо- и теплоснабжения и электропередач возникают на границах участка в невероятно короткие сроки.

Кроме того, мы реализовали с местными властями, так сказать для души, проект по рекуперации тепла. Установив теплообменники в месте выброса отработанного горячего воздуха, мы нагреваем теплоноситель и передаем его в городскую систему теплоснабжения. Для муниципалитета доводить подогретую таким образом воду тепловыми насосами до необходимой температуры оказалось дешевле, чем строить дополнительную котельную для новых районов города.


Собственно теплообменники

Это решение мы представили в марте на выставке CeBit (в этом году объединенной с Datacenter Dynamics), и оно привлекло к себе огромное внимание - тематика энергоэффективных технологий сегодня очень актуальна. 27 мая Мянтсяля получила приз Best Heat Pump City in Europe.

Проектирование

Если не касаться содержания документации, то уже в процессе проектирования мы столкнулись с некоторыми интересными особенностями работы в Финляндии.

Там нет такой жесткой формализации оформления и состава документов, к которой мы привыкли. Говоря совсем просто, детализация документации должна быть ровно такой, чтобы исполнитель смог получить всю необходимую информацию. В какой-то мере облегчило общение с разрешительными органами, которые выражали свое одобрение, основываясь на том, как они поняли документ, не уделяя внимания полноте и оформлению.


Под крышей, где происходит забор воздуха

Некоторые из представителей властей вообще не стремились выразить свое личное мнение о проекте. Пожарный инспектор, например, был удовлетворен, если на представленном пакете документации стояла виза сертифицированной компании-консультанта. Такая подпись для него значила, что проект уже проверен и соответствует всем местным нормативам.

С другой стороны, большинство мелких подрядчиков отказывались даже оценивать стоимость работ, если в чертежах не было прописано все до последнего винтика. Такой подход озадачил не только нас, но и наших партнеров из других стран. В результате очень многие чертежи содержат куда больше информации, чем мы ожидали бы увидеть.

При реализации проекта мы пользовались трехмерной моделью здания, в которой было расставлено все оборудование, проведены кабельные трассы и т. д. На привыкание к этому инструменту потребовалось какое-то время, зато потом работать с моделью оказалось очень удобно - удавалось быстрее решать некоторые проблемы при сведении систем, которые были не сразу очевидны в двухмерном представлении.

Также наши коллеги научили нас пользоваться онлайн-системой сбора комментариев по проекту, так что можно было быть уверенным, что замечания не потеряются и будут регулярно просматриваться на проектных встречах.

Строительство

О необычайных приключениях русских заказчиков в Финляндии можно было бы написать отдельную большую статью. Но главный вывод прост: успех подобных проектов определяется умением преодолевать различия в менталитете и культуре участников. И самая большая ответственность лежит на нас в момент выбора партнера, который сможет эти различия примирить. Примеров можно привести очень много. Самые забавные, пожалуй, следующие.


Начало строительства

Финская стройка работает с семи утра до трех-четырех дня. Представьте наше недоумение, когда российская команда, возвращаясь с обеда, видит дружную толпу строителей, уже закончивших на сегодня трудовую вахту. Оставшиеся полдня мы наблюдаем почти пустынную стройплощадку, и на этом фоне несколько странно выглядят заявления финских партнеров, сетующих на то, что они никак не успевают уложиться в сроки, хотя и очень стараются.


Возведение стальных конструкций

На уровне рядового рабочего финское качество строительства не слишком сильно отличается от привычного нам. Существенное приращение качества происходит при добавлении нескольких уровней профессиональных бригадиров, контролеров и руководителей. И хотя цена «менеджерской составляющей» приводит в шок, результат получается очень хороший.

И конечно, нельзя не упомянуть легендарный финский июль, когда вся страна бросает работу и начинает отдыхать. В некоторые компании бессмысленно даже звонить - в офисе нет ни единой души. Так как мы привыкли считать эти редкие погожие дни идеальным временем для завершения многих строительных работ, такое отношение со стороны подрядчиков для нас выглядело как откровенный саботаж.


Каркас готов

Но самым главным уроком этого строительства стало осознание того, что проекты такого масштаба требуют совершенно особого подхода. То, как ты организуешь стройку, оказывает несоизмеримо больший эффект на результат проекта, чем то, что ты строишь. Мы увидели, что в другой стране люди работают иначе. Это не значит, что они что-то делают плохо, - просто по-другому. Кажется, нам удалось понять друг друга, и главное, что мы вместе получили отличный результат.

Пусконаладка

Пожалуй, основное, что отличает этот проект от всех предыдущих, - понимание с самого начала важности полноценной пусконаладки (ПНР). Для качественной сдачи объекта, а следовательно, для минимизации проблем во время эксплуатации мы еще в период проектирования держали в голове целую фазу проекта под названием Commissioning. Скрепя сердце мы отдали Commissioning два месяца, зная, что на эти два месяца будет отложен ввод в эксплуатацию уже готового ДЦ, и одновременно понимая, что в дальнейшем это окупится сторицей. И в самом деле, в процессе пусконаладки было найдено некоторое количество недостатков. Ничего серьезного, но дополнительные хлопоты службе эксплуатации они бы принесли.

Не только российский, но и мировой опыт показывает, что пусконаладка ДЦ - все еще непривычное явление. В лучшем случае разрозненные поставщики приносят программы индивидуальных испытаний, а затем группа эксплуатации совместно с генеральным подрядчиком прогоняет пять-шесть самых критичных ситуаций, как правило связанных с запуском дизелей и переключением вводов.

Полноценное описание процесса заслуживает отдельного рассказа, поэтому здесь только упомянем, что мы запланировали и провели все пять ступеней ПНР с тщательным документированием результатов.

Пусконаладку выполняла специально обученная команда. Формально они были сотрудниками генерального подрядчика, однако фактически действовали независимо, оценивая качество работ, в том числе и своих коллег. Огромное участие в пусконаладке принимала и уже сформированная к тому времени служба эксплуатации. Естественно, и представители московского офиса пристально следили за результатами испытаний.

Такой подход был сравнительно новым для нас. Мы по достоинству оценили его возможности и теперь даже не представляем, как без него запускаться.

Эксплуатация

Интересно, что набор и подготовку службы эксплуатации мы начали задолго до монтажа инженерных систем. Это позволило нам потратить больше времени на поиск действительно хороших специалистов, частично привлечь их даже на период проектирования: к сожалению, это привело к изменению проекта в самый последний момент, но зато уменьшило оторванность проекта от потребностей живых людей, которые проведут в этом ДЦ не один год. На некоторых этапах пусконаладки служба эксплуатации выполняла тестирование своими силами под наблюдением ответственной стороны.


Вход в офисную часть

В Финляндии большое внимание уделяется вопросам сертификации специалистов - некоторые виды работ выполнять без подтвержденной квалификации просто незаконно. Второй серьезный момент - это соблюдение норм охраны труда и экологии. Поэтому в нашей команде соответствующий специалист появился вторым по счету, и мы могли быть уверены, что не нарушим жесткие нормы законодательства даже случайно. Также значительный временной лаг позволил нам провести все требуемое обучение и сертификацию еще до начала эксплуатации, то есть вообще «без отрыва от производства».


Обратная сторона здания дата-центра

В целом хочется отметить большую заинтересованность будущих дежурных в своей работе. Мы уверены в команде, которую набрали, несмотря на то что дата-центр, тем более такого уровня, большинство ребят увидели в первый раз.

Нельзя не отметить, что теперь департамент эксплуатации Яндекса становится по-настоящему международным коллективом. Это не только позволит компании продолжать развивать новые навыки совместной работы, но и обяжет поднимать планку для уже существующей службы.

Что дальше?

Дальше у нас в планах расширение уже построенных площадок, а также строительство нового дата-центра, который обещает быть еще более прогрессивным. Наша цель - сделать его одним из лучших в мире.

Яндекс располагает несколькими собственными дата-центрами. Большинство из них находятся в России, самый крупный – в городе Сасово (Рязанская обл). Компания пользуется и услугами ряда ЦОД за рубежом, однако они не находятся в ее собственности. Исключение - дата-центр в Финляндии, который Яндекс спроектировал и построил с нуля. Финляндия была выбрана из-за холодного климата, доступности оптических линий и наличия надежных энергетических мощностей. Дата-центр расположился в Мянтсяля - городе с населением 20 тысяч человек, находящемся неподалёку от Хельсинки.

ЦОД начал работу в прошлом году, но возведен еще не полностью. Алексей Жумыкин, руководитель отдела эксплуатации дата-центров Яндекса, рассказал Телекомблогу, что в целом проект п редполагает четыре очереди (каждая - 10 МВт полезной мощности). Пока построена и введена в эксплуатацию первая очередь. Количество стоек в дата-центре компания не раскрывает.

План дата-центра Яндекса в Мянтсяля

"Но обычно в ЦОД такого масштаба работают десятки тысяч серверов", - говорит Алексей Жумыкин.

Как правило в дата-центрах для охлаждения используются чиллеры - машины промышленного кондиционирования, в которых в качестве охлаждающего агента действуют жидкости или газы. Однако в финском ЦОД Яндекса сервера круглый год охлаждаются естественным способом - воздухом с улицы. В жаркие дни, которых не так много, в воздух добавляется распылённая влага, которая снижает температуру. Воздух, проходя через серверную зону, нагревается и с помощью вентиляторов нагнетается в огромные камеры - теплообменники, куда подаётся вода из городской сети Мянтсяля.

"Одним из важнейших компонентов дата-центра является система охлаждения, - рассказывают в Яндексе. - В ходе работы серверы выделяют много тепла, которое необходимо отводить во избежание перегрева. Система охлаждения, которая применяется в нашем дата-центре в Мянтсяля, позволяет использовать тепло от серверов в полезных целях - для отопления жилых домов. Поставляя городу тепло, Яндекс получает возможность возместить часть трат на электроэнергию - одну из самых крупных для дата-центра статей расходов".

Температура воды на выходе из теплообменника составляет, в зависимости от сезона, 30-45 градусов. Этого недостаточно, чтобы подавать воду напрямую в краны и батареи - поэтому по договорённости с администрацией Мянтсяля на территории дата-центра построили станцию донагрева. В ней вода с помощью тепловых насосов доводится до стандартной температуры и оттуда уже поступает в городскую сеть.

Население Мянтсяля составляет чуть более 20 тысяч человек; около половины горожан живут в домах с центральным теплоснабжением. Изначально для отопления новых районов город собирался построить котельную, но подсчёты показали, что использовать тёплую воду из дата-центра и доводить её до стандартной температуры на станции донагрева дешевле.

Коммунальные службы Мянтсяля рассчитали, что благодаря «серверному» теплоснабжению в 2016 году стоимость отопления для жителей Мянтсяля сократится на 5%, потребление газа для обслуживания городской сети - вдвое, а выбросы CO2 (параметр, которому в европейских странах уделяют особое внимание) - до 40%.

Яндекс, поставляя городу тепло, рассчитывает снизить свои расходы на электроэнергию до 30%.

Аналогичный проект может заработать и в России.

"Мы продолжаем совершенствовать систему охлаждения серверов уличным воздухом. Она может использоваться не только в странах с холодным климатом, но и в более тёплых регионах. Яндекс рассчитывает задействовать систему в дата-центре, который мы начали строить во Владимирской области. Тепло, выделяемое серверами, можно применять для обогрева не только жилых и общественных зданий, но и промышленных предприятий или, например, теплиц и парников", - говорится в блоге компании.

Алексей Жумыкин рассказывает, что дата-центр в Мянтсяля используется д ля задач, связанных с обработкой поисковых запросов, в том числе от пользователей сервисов Яндекса не из России (Турция, Украина, Европа). Кроме того, мощности дата-центра будет использовать подразделение Яндекса, занимающееся обработкой больших данных и машинным обучением - Yandex Data Factory .

По словам Алексея Жумыкина, Яндекс п ланирует перенести основную нагрузку по обработке данных с арендуемых зарубежных ЦОД на дата-центр в Финляндии.

Инвестиции в строительство дата-центра в Мянтсяля компания не раскрывает.

Напомним, что ранее своей дата-центр, в котором охлаждение серверов также происходит с помощью холодного уличного воздуха, запустила соцсеть Facebook. Ее дата-центр находится не так далеко от финского ЦОД Яндекса - в городе Лулео в Швеции. Лулео расположен всего в 60 км. от северного полярного круга.

Серверный шкаф.

Яндекс поддерживает разветвлённую и независимую от офисов сеть дата-центров, которая позволяет обеспечивать пользователей качественными сервисами в режиме 24х7 с высокой скоростью доступа. Несколько лет назад в Яндексе шутили, что департамент эксплуатации компании потребляет серверы на завтрак, обед и ужин, устанавливая в дата-центры по три сервера за день. Сегодня эта цифра гораздо больше.

Вот как выглядит дата-центр Яндекса изнутри:

Стойка с серверами. В одну стойку мы можем установить до 80 серверов, к которым подключены провода. Очень много проводов.

Каждый сервер подключён двумя проводами. Один для управления, другой - для передачи данных.

Сетевой центр с оптическими кабелями.

Модуль c двумя рядами стоек с серверами.

Так стойка с серверами выглядит сзади.

Серверный шкаф.

Часть системы вентиляции и охлаждения дата-центра.

Маховики, которые накапливают энергию на случай отключения электричества (DRUPS). Генерируют электричество, давая возможность запуститься дизелям.

Щиты электрораспределения энергомодуля, которые являются частью решения на DRUPS.

Система пожаротушения. На всякий случай.

Так выглядит система охлаждения дата-центра снаружи.

Энергоцентр, в котором находятся DRUPS и топливохранилище. В масштабах к дата-центру это внушительное здание всего лишь маленький домик.

","contentType":"text/html"},"proposedBody":{"source":"

Яндекс поддерживает разветвлённую и независимую от офисов сеть дата-центров, которая позволяет обеспечивать пользователей качественными сервисами в режиме 24х7 с высокой скоростью доступа. Несколько лет назад в Яндексе шутили, что департамент эксплуатации компании потребляет серверы на завтрак, обед и ужин, устанавливая в дата-центры по три сервера за день. Сегодня эта цифра гораздо больше.

Вот как выглядит дата-центр Яндекса изнутри:

Стойка с серверами. В одну стойку мы можем установить до 80 серверов, к которым подключены провода. Очень много проводов.

Каждый сервер подключён двумя проводами. Один для управления, другой - для передачи данных.

Сетевой центр с оптическими кабелями.

Модуль c двумя рядами стоек с серверами.

Так стойка с серверами выглядит сзади.

Серверный шкаф.

Часть системы вентиляции и охлаждения дата-центра.

Маховики, которые накапливают энергию на случай отключения электричества (DRUPS). Генерируют электричество, давая возможность запуститься дизелям.

Щиты электрораспределения энергомодуля, которые являются частью решения на DRUPS.

Система пожаротушения. На всякий случай.

Так выглядит система охлаждения дата-центра снаружи.

Энергоцентр, в котором находятся DRUPS и топливохранилище. В масштабах к дата-центру это внушительное здание всего лишь маленький домик.

Яндекс поддерживает разветвлённую и независимую от офисов сеть дата-центров, которая позволяет обеспечивать пользователей качественными сервисами в режиме 24х7 с высокой скоростью доступа. Несколько лет назад в Яндексе шутили, что департамент эксплуатации компании потребляет серверы на завтрак, обед и ужин, устанавливая в дата-центры по три сервера за день. Сегодня эта цифра гораздо больше.

Вот как выглядит дата-центр Яндекса изнутри:

Стойка с серверами. В одну стойку мы можем установить до 80 серверов, к которым подключены провода. Очень много проводов.

Каждый сервер подключён двумя проводами. Один для управления, другой - для передачи данных.

Сетевой центр с оптическими кабелями.

Модуль c двумя рядами стоек с серверами.

Так стойка с серверами выглядит сзади.

Серверный шкаф.

Часть системы вентиляции и охлаждения дата-центра.

Маховики, которые накапливают энергию на случай отключения электричества (DRUPS). Генерируют электричество, давая возможность запуститься дизелям.

Щиты электрораспределения энергомодуля, которые являются частью решения на DRUPS.

Система пожаротушения. На всякий случай.

Так выглядит система охлаждения дата-центра снаружи.

Энергоцентр, в котором находятся DRUPS и топливохранилище. В масштабах к дата-центру это внушительное здание всего лишь маленький домик.

","contentType":"text/html"},"authorId":"5105614","slug":"73141","canEdit":false,"canComment":false,"isBanned":false,"canPublish":false,"viewType":"old","isDraft":true,"isOnModeration":false,"isSubscriber":false,"commentsCount":93,"modificationDate":"Fri Nov 29 2013 13:24:00 GMT+0000 (UTC)","showPreview":true,"approvedPreview":{"source":"Яндекс поддерживает разветвлённую и независимую от офисов сеть дата-центров, которая позволяет обеспечивать пользователей качественными сервисами в режиме 24х7 с высокой скоростью доступа. Несколько лет назад в Яндексе шутили, что департамент эксплуатации компании потребляет серверы на завтрак, обед и ужин, устанавливая в дата-центры по три сервера за день. Сегодня эта цифра гораздо больше.","html":"Яндекс поддерживает разветвлённую и независимую от офисов сеть дата-центров, которая позволяет обеспечивать пользователей качественными сервисами в режиме 24х7 с высокой скоростью доступа. Несколько лет назад в Яндексе шутили, что департамент эксплуатации компании потребляет серверы на завтрак, обед и ужин, устанавливая в дата-центры по три сервера за день. Сегодня эта цифра гораздо больше.","contentType":"text/html"},"proposedPreview":{"source":"Яндекс поддерживает разветвлённую и независимую от офисов сеть дата-центров, которая позволяет обеспечивать пользователей качественными сервисами в режиме 24х7 с высокой скоростью доступа. Несколько лет назад в Яндексе шутили, что департамент эксплуатации компании потребляет серверы на завтрак, обед и ужин, устанавливая в дата-центры по три сервера за день. Сегодня эта цифра гораздо больше.","html":"Яндекс поддерживает разветвлённую и независимую от офисов сеть дата-центров, которая позволяет обеспечивать пользователей качественными сервисами в режиме 24х7 с высокой скоростью доступа. Несколько лет назад в Яндексе шутили, что департамент эксплуатации компании потребляет серверы на завтрак, обед и ужин, устанавливая в дата-центры по три сервера за день. Сегодня эта цифра гораздо больше.","contentType":"text/html"},"titleImage":null,"tags":[{"displayName":"дата-центры","slug":"data-tsentry","categoryId":"150008300","url":"/blog/company??tag=data-tsentry"}],"isModerator":false,"commentsEnabled":true,"url":"/blog/company/73141","urlTemplate":"/blog/company/%slug%","fullBlogUrl":"https://yandex.ru/blog/company","addCommentUrl":"/blog/createComment/company/73141","updateCommentUrl":"/blog/updateComment/company/73141","addCommentWithCaptcha":"/blog/createWithCaptcha/company/73141","changeCaptchaUrl":"/blog/api/captcha/new","putImageUrl":"/blog/image/put","urlBlog":"/blog/company","urlEditPost":"/blog/562885fb7eba6ef16f805315/edit","urlSlug":"/blog/post/generateSlug","urlPublishPost":"/blog/562885fb7eba6ef16f805315/publish","urlUnpublishPost":"/blog/562885fb7eba6ef16f805315/unpublish","urlRemovePost":"/blog/562885fb7eba6ef16f805315/removePost","urlDraft":"/blog/company/73141/draft","urlDraftTemplate":"/blog/company/%slug%/draft","urlRemoveDraft":"/blog/562885fb7eba6ef16f805315/removeDraft","urlTagSuggest":"/blog/api/suggest/company","urlAfterDelete":"/blog/company?filter=drafts","isAuthor":false,"subscribeUrl":"/blog/api/subscribe/562885fb7eba6ef16f805315","unsubscribeUrl":"/blog/api/unsubscribe/562885fb7eba6ef16f805315","urlEditPostPage":"/blog/company/562885fb7eba6ef16f805315/edit","urlForTranslate":"/blog/post/translate","urlRelateIssue":"/blog/post/updateIssue","urlUpdateTranslate":"/blog/post/updateTranslate","urlLoadTranslate":"/blog/post/loadTranslate","urlTranslationStatus":"/blog/company/73141/translationInfo","urlRelatedArticles":"/blog/api/relatedArticles/company/73141","author":{"id":"5105614","uid":{"value":"5105614","lite":false,"hosted":false},"aliases":{"13":"kadaner"},"login":"minushuman","display_name":{"name":"Алексей","avatar":{"default":"21377/5105614-16014116","empty":false}},"address":"[email protected]","defaultAvatar":"21377/5105614-16014116","imageSrc":"https://avatars.mds.yandex.net/get-yapic/21377/5105614-16014116/islands-middle","isYandexStaff":true},"originalModificationDate":"2013-11-29T09:24:06.000Z","socialImage":{"orig":{"fullPath":"https://avatars.mds.yandex.net/get-yablogs/49865/file_1465551301378/orig"}}}}}">

Экскурсия в дата-центр Яндекса

Яндекс поддерживает разветвлённую и независимую от офисов сеть дата-центров, которая позволяет обеспечивать пользователей качественными сервисами в режиме 24х7 с высокой скоростью доступа. Несколько лет назад в Яндексе шутили, что департамент эксплуатации компании потребляет серверы на завтрак, обед и ужин, устанавливая в дата-центры по три сервера за день. Сегодня эта цифра гораздо больше.

Вот как выглядит дата-центр Яндекса изнутри:

Стойка с серверами. В одну стойку мы можем установить до 80 серверов, к которым подключены провода. Очень много проводов.

Каждый сервер подключён двумя проводами. Один для управления, другой - для передачи данных.

Сетевой центр с оптическими кабелями.

Модуль c двумя рядами стоек с серверами.

Так стойка с серверами выглядит сзади.

Серверный шкаф.

Часть системы вентиляции и охлаждения дата-центра.

Маховики, которые накапливают энергию на случай отключения электричества (DRUPS). Генерируют электричество, давая возможность запуститься дизелям.

Щиты электрораспределения энергомодуля, которые являются частью решения на DRUPS.

Система пожаротушения. На всякий случай.

Так выглядит система охлаждения дата-центра снаружи.

Энергоцентр, в котором находятся DRUPS и топливохранилище. В масштабах к дата-центру это внушительное здание всего лишь маленький домик.

И Нидерландах, однако после введения в эксплуатацию собственного большого дата-центра в Финляндии в 2015 году необходимость в аренде этих площадок пропала, рассказали TAdviser в компании.

Развитие ИТ-инфраструктуры «Яндекса»

2017: За пять лет стоимость ИКТ-инфраструктуры «Яндекса» выросла в 3,5 раза

Общая стоимость серверов и сетевой инфраструктуры, которыми владеет «Яндекс» , с 2013 по 2017 гг. выросла более чем в 3,5 раза: с 9,739 млрд рублей до 34,165 млрд рублей. Это следует из годовых отчетов «Яндекса» по форме 20-F . Данные о стоимости приведены за вычетом аккумулированных амортизационных отчислений, указано в отчетах.

Выросла и стоимость «инженерных систем» «Яндекса»: с 3,409 млрд рублей в 2013 году до 7,621 млрд рублей в 2017 году. В отчетах не уточняется, какие именно инфраструктурные системы имеются в виду. В «Яндексе» говорят, что здесь имеются в виду дата-центры компании.

В 2017 году «Яндекс» потратил на приобретение серверов и расширение дата-центров порядка 10 млрд рублей, что составило 81% от всех капитальных затрат компании. При этом и в 2017, и в 2016 гг. они в большой степени связаны с созданием нового дата-центра во Владимире, о запуске которого было объявлено в сентябре.

От года к году объем затрат на серверы и оборудование колеблется: так, например, в 2013 году их объем был 3,850 млрд рублей, а в 2015 году – около 11 млрд рублей.


В отчете также говорится рисках в области инфраструктуры, с которыми сталкивается «Яндекс». Компания отмечает, что ее будущий успех зависит от непрерывной доступности, развития и поддержки интернет-инфраструктуры глобально и на рынках, где работает «Яндекс». Это включает поддержку надежной магистральной сети с нужной скоростью, пропускной способностью и безопасностью для предоставления надежных интернет-сервисов. Любое прерывание доступа к сети, обеспечиваемого третьими сторонами, или их неспособность поддержать текущие или увеличенные будущие объемы использования могут существенно навредит бизнесу «Яндекса». При этом компания уже испытывала и продолжает испытывать прерывания и задержки в этих сервисах время от времени.

Интернет-инфраструктура также может оказаться неспособна выдержать нагрузку со стороны растущего числа пользователей или времени, проводимого онлайн, или увеличенные требования пропускной способности. Государственное регулирование также может ограничить доступ компании к адекватной и надежной интернет-инфраструктуре, говорится в отчете «Яндекса» без уточнения подробностей.

2016: «Яндекс» сокращает ЦОДы в Москве

«Яндекс» планирует перенести часть вычислительных мощностей из своих дата-центров в Москве в новый ЦОД во Владимире, рассказал руководитель группы исследований и разработки департамента эксплуатации «Яндекса» Павел Мельников , выступая на мероприятии компании Mellanox в марте 2016 года.

В качестве причины этого он упомянул дороговизну содержания дата-центров в Москве, главным образом, из-за высокой стоимости электроэнергии.


В пресс-службе «Яндекса» предпочли не углубляться в детали миграции, отметив лишь, что «строительство новых площадок ЦОД в Москве сейчас невыгодно, и стоимость электричества здесь - лишь один из факторов». Поэтому «Яндекс» «оптимизирует» инфраструктуру ЦОД.

По данным годового отчета «Яндекса» по форме 20-F , в 2015 году капитальные затраты компании составили 13,045 млн руб., из которых примерно 84% составили расходы на расширение инфраструктуры дата-центров и серверы, чтобы поддержать текущий рост деятельности компании.

2015

Строительство ЦОДа во Владимире

В 2015 году «Яндекс» начал реализацию проекта по строительству дата-центра в поселке Энергетик Владимирской области. Представители администрации региона сообщали о том, что объем инвестиций в проект составит порядка 4,5 млрд руб.

В одном из блогов «Яндекса» говорится, что до начала проектирования финского дата-центра компания успела построить и частично закрыть 10 дата-центров .

2013: План великой миграции серверов

«Яндекс» планирует строить новые высокоэффективные ЦОДы , в которые постепенно будут мигрировать мощности со старых площадок, рассказал TAdviser 19 марта 2013 г. Сергей Крупин, заместитель директора департамента строительства и инженерных систем интернет-компании. В них планируется внедрять передовые технологии, выбор которых будет опирается на опыт строительства и эксплуатации предыдущих ЦОДов, говорит он.

По словам Крупина, при строительстве новых площадок «Яндекс» будет ориентироваться на те регионы, в которых по климатическим параметрам сможет построить наиболее эффективную систему охлаждения ЦОДа.

В «Яндексе» рассказывают, что все последние ЦОДы компании построены с использованием тех или иных систем охлаждения с технологиями free cooling, включая и так называемые схемы Full free cooling, подразумевающие охлаждение серверных помещений за счет воздуха с улицы. Общая мощность таких ЦОДов компании превышает 15 МВт. Аналогичные технологии планируется применять и в будущих ЦОДах, куда мигрируют вычислительные ресурсы.

Технология Full free cooling, в частности, сейчас используется в ЦОДе «Яндекса» в подмосковном городе Ивантеевка , построенном в 2011 г., и в новом ЦОДе в Рязанской области , строительство которого завершилось в 2012 году.

В нем в качестве дополнительного охлаждающего оборудования применяется абсорбционно-холодильная машина, которая работает на природном газе. По словам представителей интернет-поисковика, она позволяет повысить эффективность использования энергоресурсов и снизить потребление электричества.

Сергей Крупнин отмечает, что внедрение любых энергосберегающих, инновационных или «зеленых» технологий предполагает высокие капитальные затраты, но позволяет существенно снизить эксплуатационные расходы. Поэтому определяющим фактором становится срок эксплуатации ЦОД. Если это долгосрочный проект (более 10 лет), то энергосберегающие технологии становятся окупаемыми.

Где именно будут располагаться новые площадки и каковы будут их параметры, в компании предпочли не раскрывать, отметив лишь, что по состоянию на март 2013 г. у «Яндекса» насчитывается шесть дата-центров , располагающихся как в России , так и за ее пределами. Часть серверов в своих ЦОДах компания на безвозмездной основе предоставляет Европейскому центру ядерных исследований (ЦЕРН).

2011: Строительство ЦОДа в Ивантеевке

По состоянию на 2011 год у «Яндекса» в России есть пять дата-центров , крупнейший из которых расположен подмосковном городе Ивантеевка. В сентябре 2011 года «Яндекс» сообщил о запуске второй очереди своего дата-центра в подмосковном городе Ивантеевка. Общая площадь двух его очередей составляет 4,5 тыс. кв. м, из которых 2,2 тыс. кв.м. приходится на вторую очередь.

Во второй очереди нового дата-центра используется система охлаждения российской разработки – Full Free Cooling (FFC). Она основана на технологии свободного охлаждения (free cooling), при которой помещение дата-центра охлаждается за счет более прохладного воздуха с улицы.

Разработчиком этой системы является московская компания Ayaks Engineering. Ее представитель Андрей Нестеров заявил CNews, что «Яндекс» стал их первым клиентом, использующим систему FFC в своем дата-центре.

Всего в ЦОДе будет размещено более 10 тыс. серверов, а общая потребляемая мощность составляет 8 МВт. В «Яндексе» уточнили, что показатель энергопотребления приведен с учетом новой системы охлаждения. «То электричество, которое мы экономим на охлаждении, мы можем пустить на более полезные вещи - на ИТ-мощности в том же дата-центре, например», - рассуждают в поисковике.

Согласно стандарту TIA-942 температура, которую необходимо выдерживать в серверных помещениях, составляет +22 градуса по Цельсию ± 2 градуса. В том или ином виде технологию free cooling используют во многих российских дата-центрах, однако главной особенностью своей системы в Ayaks Engineering называют температурный порог, при котором задействуется оборудование для охлаждения внешнего воздуха – он составляет +22 градуса. Т.е. система охлаждения включится только после того, как температура воздуха превысит это значение.

В стандартных холодильных установках с free cooling охлаждение включается при +5 - +12 градусах по Цельсию.

В «Яндексе» заявляют, что с использованием системы Ayaks Engineering новому дата-центру требуется в два раза меньше электроэнергии в год для поддержки того же количества серверов. Впрочем, некоторые эксперты считают, что в данном случае это сомнительное преимущество.

Евгений Громов, технический директор «Центра Хранения Данных», владеющего дата-центром SafeData, рассказал CNews , что их компания также рассматривала данную систему: «Ее плюс – в уменьшении затрат на электроснабжение, из минусов – в четыре раза большая цена по сравнению с классическими системами и более дорогое техническое обслуживание. При нынешних ценах на электроэнергию в России в коммерческом ЦОДе такая система не оправданна».

Система FFC представляет собой два разомкнутых отдельных контура, наружный и внутренний. Во внутреннем контуре циркулирует воздух ЦОДа, в наружный контур подается уличный воздух. Основным элементом системы является роторный регенератор, в котором происходит теплообмен между наружным воздухом окружающей среды и воздухом в помещении ЦОДа. Задача роторного регенератора заключается в том, чтобы охладить воздух в дата-центре с +37 до +24 градусов наружным воздухом температурой до +22 градусов.

Экспериментировать с различными технологиями охлаждения мы начали в конце 2009 г. Основная задача заключалась в том, чтобы максимально увеличить температурный порог. В результате его удалось поднять с +13 до +22 градусов по Цельсию, - говорит Геннадий Вахутинский, директор по строительству инженерных систем «Яндекса». - От использования в новом дата-центре экономичной системы охлаждения выиграет не только компания, но и окружающая среда - меньше электроэнергии, значит меньше природных ресурсов для её выработки.

Из известных в России систем охлаждения схожий с FFC принцип работы на основе роторного теплообменника используется также, к примеру, в системе Kyoto Cooling, разработанной в Голландии.

Начало 2000-х: Первые дата-центры «Яндекса»

Когда в 1997 году был открыт сайт www.yandex.ru, для его работы достаточно было одного сервера под столом одного из первых разработчиков . Вскоре после объявления об открытии появился второй сервер, а когда понадобилось установить ещё один, выяснилось, что места под столом не хватает.

До мысли о создании собственных дата-центров Яндексу в тот момент было ещё далеко - индекс русскоязычного интернета целиком умещался на одном SCSI-диске размером 4Гб, а вся команда портала составляла около десяти человек, работавших в компании CompTek. Поэтому серверное оборудование Яндекса в первые три года его работы было размещено в дата-центре компании «МТУ-Интел». К моменту создания ООО «Яндекс» в 2000 году Яндекс арендовал четыре стойки в «МТУ-Интеле», где размещалось около 40 собственных серверов Яндекса.

Эти несколько десятков серверов и стали основой первого самостоятельного дата-центра Яндекса, который расположился в первом офисе компании - в Москве, на улице Вавилова, в вычислительном центре Российской академии наук.



Загрузка...
Top