Parus16.ru

Парус №16
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Какова правильная температура для серверной комнаты

Какова правильная температура для серверной комнаты?

Когда я работал в нашей серверной комнате, я заметил, что было очень холодно.

Я знаю, что серверная комната должна быть холодной, чтобы компенсировать перегрев серверов, но, возможно, она слишком холодная.

Какова подходящая температура для хранения серверной комнаты?

Рекомендации по серверной комнатной температуре сильно различаются.

Общие рекомендации предполагают, что вы не должны опускаться ниже 10 ° C (50 ° F) или выше 28 ° C (82 ° F). Хотя это кажется широким диапазоном, это крайности, и гораздо чаще поддерживать температуру окружающей среды около 20-21 ° C (68-71 ° F). По разным причинам это иногда может быть непростой задачей.

Это обсуждение Slashdot имеет множество ответов, но большинство из них находятся в диапазоне, указанном выше.

Обновление : как другие прокомментировали ниже, Google рекомендует 26,7 ° C (80 ° F) для центров обработки данных.

Однако эта статья еще раз подчеркивает, что до сих пор нет единого мнения по этому вопросу. Как уже упоминалось в статье, я хотел бы подчеркнуть, что:

. подталкивание термостата выше может также дать меньше времени для восстановления после сбоя охлаждения, и это подходит только для компаний, которые хорошо понимают условия охлаждения на своем предприятии.

В большинстве компаний IMO не было бы такого глубокого понимания условий охлаждения, и поэтому в условиях малого бизнеса было бы безопаснее управлять помещениями немного прохладнее.

NB. Важно отметить, что в помещении сервера / данных необходимо учитывать гораздо больше факторов, чем, например, температура, воздушный поток и влажность, а также важные проблемы.

Повышение температуры холодного коридора снизит потребление энергии на объекте. Не пытайтесь пробежать свой холодный проход в 70F; установите температуру на уровне 80F или выше — практически все производители оборудования позволяют это.

Мы бежим в 72, но опять же я не совсем верю, что наша собственная комната была спроектирована с учетом воздушного потока.

Как уже говорили другие, где-то в 70-х F это хорошо. Тем не менее, еще более важно убедиться, что стойка и оборудование в ней могут «дышать». Если горячий воздух задерживается в стойке — или в корпусе сервера — тогда низкая температура окружающей среды не принесет никакой пользы.

Моя серверная комната настроена на 69 градусов. У нас есть один кондиционер, который обслуживает эту комнату, и он работает 24/7, чтобы держать комнату на 69 градусов круглый год.

Все серверные комнаты, которые я видел, обычно находятся между 20 ° C и 25 ° C, но из опыта я заметил, что аппаратное обеспечение более чувствительно к изменениям, чем заданная температура. Я часто видел сбой оборудования после, скажем, 4-5 ° C, даже если он составляет от 20 до 25.

Таким образом, стабильность является ключевым фактором, а также поток воздуха, конечно.

18 ° C (65 ° F). Это немного холоднее, чем должно быть, но если что-то не получается, это дает нам несколько драгоценных дополнительных минут, чтобы среагировать, прежде чем станет невыносимо жарко.

Помните, что рекомендация Google в отношении 80 ° F практически не включает в себя отключение центра обработки данных, когда он перегревается из-за неожиданной нагрузки или сбоя кондиционера. Они также включают в себя больший контроль воздушного потока над критическими компонентами.

Нам нравится, чтобы у нас было между 19 и 23 ° C, а аварийные сигналы — при 28 ° C — мы находимся на уровне блейда 98% HP, поэтому в случае, когда мы достигаем этого уровня тревоги, некоторые серверы / корпуса «выключают свой фитиль», чтобы снизить общее энергопотребление ( это называется термологическим).

По моему опыту, это зависит от оборудования. Я знаю, что в одной компании было три серверных комнаты. Один был около 80 ° F, другой, с меньшим количеством серверов, был около 72 ° F, а третий, только с двумя серверами, был около 65 ° F. За все время, что я там находился, у меня никогда не было проблем, но, как уже говорили другие, 75 ° F или чуть ниже, вероятно, лучше, так как это дает немного места для локтя, если AC выключается.

Все, что выше 30 ° С на входах воздуха, которые мы обнаружили, вызывает температурные предупреждения (которые мы отслеживаем), в общем, это означает, что температура в помещении ниже 25 ° С.

В Австралии кажется, что Эмерсон (Либерт) решил, что 21с будет стандартом, и каждая комната, в которой я был, была одинаковой.

Если ваша комната достаточно велика, обратите внимание на горячую / холодную поверхность, плиту-заглушку и т. П., Они действительно могут улучшить эффективность охлаждения.

Я во флоте. На нашем корабле мы держали наши комнаты при температуре ниже 65 градусов по Фаренгейту. Мы были бы в середине Красного моря, и было бы 120 градусов снаружи. Мы выходили из космоса (при 62 градусах) со свитером, перчатками, пальто и павлином, и все смотрели на нас, как на сумасшедших. Все остальные были раздеты до футболок и вспотели, как сумасшедшие.

Проблема в том, что наша система охлаждения не очень хорошо удаляет влагу. Таким образом, если на улице влажно, а температура поднимается до 70 градусов и более, в помещении начинает становиться липким.

Нет жесткого и быстрого ответа на этот вопрос. Это во многом зависит от типа компьютеров и конструкции центра обработки данных.

Один из ключевых моментов, которые были высказаны в этом обсуждении slashdot, заключается в том, что реальная трудность связана с горячими точками и потоком воздуха .

Прохладная температура окружающей среды в комнате — это простой способ охладить тысячи горячих точек в комнате. Но это неэффективно: центр обработки данных охлаждает всю комнату, когда все, что действительно необходимо, — это охлаждать горячие части серверов (процессор, память, хранилище, источники питания и т. Д.). У многих предприятий колокейшн есть клиенты с разнородными типами оборудования (115 В или 208 В, хорошие дизайны, плохие дизайны).

Читайте так же:
Глючит вай фай на ноутбуке

Центру обработки данных также необходимо поддерживать достаточное количество холодного воздуха для обеспечения буфера в случае сбоя питания . Буфер холодного воздуха означает, что ИБП и генераторы работают меньше. Представьте, что центр обработки данных теряет 100% мощности (все узлы отключаются, охлаждение также отключается) одновременно. Узлы могут не иметь питания, но аппаратному обеспечению потребуется время для охлаждения, и они все еще будут излучать тепло некоторое время, и это может сделать центр обработки данных очень горячим.

Организации с теплыми серверными комнатами часто используют закрытые шкафы и причудливые воздуховоды для направления холодного воздуха прямо через горячие узлы. Специализированная энергетическая инфраструктура может помочь уменьшить тепло от преобразования энергии. Это сохраняет узлы достаточно прохладными, даже если температура в серверной комнате теплая. Эти организации обычно жестко контролируют большинство аспектов своего оборудования и могут индивидуально спроектировать весь центр обработки данных для своих нужд. Они могут делать инвестиции и пожинать плоды.

Первый: где вы измеряете комнатную температуру? 😉 Какова температура холодной стороны стойки? что такое горячая сторона стойки? какова температура впуска A / C?

Это действительно зависит от устройств. (почувствуйте тепло, которое исходит от xbox) Терморегуляция — это наука, посмотрите, что Honda (и многие другие) начинают охлаждать выхлопные воды 😉 .

Я расскажу вам об этих центрах обработки данных, в которых я был:

Эквикс держит там холодный DC (делает для хорошего «опыта» для когда exec отправляется в тур)

RW держит их в тепле / тепле около 80 ° с довольно холодным воздухом, выходящим из пола (лучший дизайн помещения / хранилища и более высокое качество системы в целом)

Coresite (по крайней мере, где я был) ближе к RW, но это зависит от CR и клиентов. Некоторые ЧР в 80, некоторые в 70. (холодные острова всегда холодные)

Срок службы сервера

Profile picture for user Олег

Срок службы сервера — 5 лет.

Классификация основных средств, утвержденной постановлением Правительства РФ от 01.01.2002 № 1 относит серверы к электронно-вычислительной технике, 2-я амортизационная группа. Значит, срок полезного использования сервера можно установить в пределах от 2 лет и одного месяца до 3 лет.

Но мы не бухгалтеры, а сисадмины. Даже если сервер спишут, он всё равно останется в стойке. Реальный срок эксплуатации больше.

Через пять лет поддержка серверов прекращается, комплектующие достать сложно. Сервер ещё может продолжать работать, у кого-то железки продолжают трудиться и через 15 лет. Появляются новые стандарты и технологии. Требования бизнеса к сервисам возрастают, требования сервисов к железу возрастают. Железо стареет, электроника увядает. Даже если сервер держится молодцом, некоторые его компоненты могут выходить из строя.

Как продлить срок службы сервера?

Даже не так, не продлить срок службы, а уменьшить вероятность поломки и обеспечить непрерывность работы сервисов. Да и частоту своих поездок в ЦОД снизить.

Микроклимат

В первую очередь следует обратить внимание на параметры окружающей среды, на микроклимат в помещении. Сервер может располагаться в серверной, находиться в ЦОД (Центр Обработки Данных), или стоять под столом.

Требования к микроклимату по российским СН 512-78 (п.3):

  • Температура воздуха 18 — 20°С. Не более 25°С, не менее 14 °С.
  • Относительная влажность воздуха 20 — 70%. Не более 75% в холодный период, не более 65% в теплый период (для 25°С), не более 70% для температуры от 24°С и ниже.
  • Оптимальная скорость потока воздуха 0,2 м/с. Не более 0,3 м/с для холодного, 0,5 м/с для теплого периодов.
  • Запыленность воздуха в серверной не должна превышать 0,75 мг/м³, с размерами частиц не более 3 мкм. в помещениях обработки данных 2 мг/м³.

Требования к микроклимату по американскому стандарту TIA 942 (п.5.3.5.):

  • Температура воздуха по сухому термометру 20 — 25°С. Не более 25°С.
  • Точка нормальной настройки 22°С.
  • Контрольный диапазон изменений ±1°С.
  • Относительная влажность воздуха 40 — 50%.
  • Точка росы не более 21°С.
  • Скорость изменения температуры не более 5°С в час.

Электропитание

Я бы ещё к микроклимату добавил требования к стабильной работе электросети. Частые отключения электричества могут плохо сказаться на здоровье сервера. У меня есть один такой кандидат, он стоит в помещении, в котором постоянно отключают свет. После очередного отключения серверу стало плохо (уже на программном уровне). Срочно закупили источник бесперебойного питания и настроили штатное завершение работы операционной системы при длительном отключении электричества.

Блоки питания сервера часто выходят из строя. На такой случай лучше выбирать сервер с возможностью горячей замены БП (hot plug) и резервированием. При выходе из строя одного из блоков питания сервер продолжает работать, сервисы доступны. Не выключая сервер можно извлечь блок питания и заменить на новый, по гарантии или за деньги — это уже другой вопрос.

Наличие двух и более блоков питания также позволяет запитать сервер по двум отдельным лучам электроснабжения. Если на одном луче питание отключается, то второй луч нас спасает.

Если два луча питания есть, а блок питания один, то позаботьтесь о резервировании сервера или используйте устройство типа ATS (Automatic Transfer Switch — устройство автоматического включения резерва):

Такая штука позволить запитать один блок питания от двух лучей. Дорого, но надёжно.

Нагрузка

Что выйдет из строя раньше: сервер с 10% загрузки или 100%? Явно тот, что нагружен сильнее. С другой стороны зачем вообще покупать сервер, если его не нагружать?

Читайте так же:
Гугл карта панорама улиц нижний новгород

Соблюдаем баланс, практика показывает, что оборудование должно быть нагружено на 80%. Есть исключения из этого правила, когда дополнительная загрузка приносит доход больше, чем стоимость сдохших серверов. Обычно это какие-нибудь кластеры производительного железа, задача которых — считать. Такие сервисы обычно без проблем выдерживают потерю нескольких нод.

Горячая замена — hot plug

Используйте сервер с возможностью горячей замены компонентов. Менять можно диски, блоки питания, вентиляторы (вентиляторы ни разу не менял). Подозреваю, что вентиляторы могут выходить из строя в условиях повышенной запылённости. На этот случай обеспечьте возможность доступа к внутренним компонентам сервера (возможность выдвижения) без выключения самого сервера с помощью специальных приспособлений — рукавов.

Не забывайте использовать RAID-контроллеры для организации массивов высокой доступности. Это позволит сменить сбойный диск без остановки сервисов и потери данных.

На случай отключения питания используйте дополнительный кэш RAID-контроллера с питанием от батарейки. Батарейку нужно чаще менять, но купирование рисков потери данных в критичных сервисах важнее.

ЗИП — Запасные части, Инструменты и Принадлежности

На случай выхода из строя компонентов нужно иметь запчасти. Срок службы жёстких дисков, твердотельных накопителей, блоков питания и прочего железного барахла ограничен.

  • Cрок работы жесткого диска 3-5 лет. HDD служат дольше чем SSD.
  • Блоки питания — 3-5 лет.
  • Аккумуляторные батарейки — 3-5 лет (у меня часто дохнут).
  • Процессор — 10-20 лет при большой нагрузке. Устареет раньше чем сгорит.
  • GPU — 10 лет. Устареет раньше чем сгорит. При майнинге 2-3 года.
  • Материнская плата — 5-7 лет.
  • Оперативная память — долго. Некоторые производители дают пожизненную гарантию на оперативную память. Однако, для России пожизненная гарантия определяется периодом в 10 лет, не слишком «пожизненно». Ну и чек сохраняйте. Устареет раньше чем сгорит.
  • Корпус — здесь могут выйти из строя дисковые корзины и дополнительные платы. Точно срок не обнаружил, но думаю, что 5-7 лет.

Человеческий фактор

Работать с серверами должен человек, который понимает что он делает. Требуется высшее техническое образование и знание слов: заземление, статическое электричество, сопромат, физика, электрика, квантово-волновой дуализм, пиво.

Не забывайте про информационную безопасность.

Вместо заключения

Самое главное при продлении срока службы сервера помнить, что сервер всё равно сломается. На этот случай вам в помощь:

Охлаждение серверной

Охлаждение серверной «ЕвроХолод» реализует на вашем объекте «под ключ». По вопросам, связанным с серверной, звоните по телефону +7(495) 745-01-41 .

Чтобы получить коммерческое предложение, напишите запрос на e-mail или отправьте быструю заявку

Реализация охлаждения вспомогательных серверных помещений зачастую откладывается на потом в силу самой роли данных помещений. Между тем охлаждение серверных необходимо, а выбранный способ должен гарантировать поддержание в помещении расчетных параметров воздуха, предоставлять корректные рекомендации по проектированию и установке оборудования, а также обеспечивать минимизацию и оптимизацию среднегодового энергопотребления.

Современные компьютеры обладают большой мощностью. Их процессоры надежно управляют ответственными бизнес-процессами в режиме 24/7, 365 дней в году. Но там, где используется вычислительная мощность, есть также высокая температура. Поскольку компьютеры надежно работают только при температуре около 18-27 ° C, их необходимо охлаждать. Чем эффективнее это охлаждение, тем меньше электроэнергии потребляет центр обработки данных.

ПРИЕМЛЕМАЯ РАБОЧАЯ ТЕМПЕРАТУРА В СЕРВЕРНЫХ

Чтобы правильно подобрать решение для охлаждения серверной, сначала необходимо определить температуру, при которой будет функционировать оборудование в этом помещении. Поставщики обычно указывают максимальную температуру окружающей среды, при которой оно способно работать: для активного ИТ-оборудования средний показатель составляет 40°C (речь идет о температуре, при которой поставщик может обеспечить должную производительность и устойчивость работы своих устройств в течение гарантийного периода).

При этом необходимо помнить, что функционирование в таких условиях не обеспечивает такого же уровня готовности и долговечности, как при более низких температурах. Именно поэтому некоторые поставщики, помимо максимальной, указывают также рекомендованную рабочую температуру. Обычно она составляет от 21 до 24°C.

Рекомендованную и разрешенную для ИТ-оборудования рабочую температуру публикует также технический комитет TC 9.9 Американского общества инженеров по отоплению, охлаждению и кондиционированию воздуха (American Society of Heating, Refrigeration, and Air Conditioning Engineers, ASHRAE). Цель заключается в том, чтобы предоставить ориентир для обеспечения необходимой устойчивости и производительности аппаратных средств. Соответствующие показатели представлены ниже:

Таблица 1. Ограничения рабочей температуры ASHRAE TC 9.9

Особое внимание следует уделить серверным с установленными в них источниками бесперебойного питания (ИБП). Повышение температуры гораздо сильнее влияет на долговечность батарей, чем на другие типы ИТ-оборудования. При 40°C батарея типового ИБП проработает всего 1,5 года, тогда как в нормальных рабочих условиях — 3–5 лет. Поэтому обязательным требованием должна стать температура ниже 25°C. Альтернативным вариантом может быть размещение централизованных ИБП в хорошо охлаждаемом месте за пределами серверной.Температуру следует поддерживать не выше 25°C. Если же это невозможно, в серверных с менее критичным оборудованием верхний предел составляет 32°C. В случае превышения этого показателя есть риск выхода оборудования из строя. 32°C — это тот максимум, который Международная организация по стандартизации (International Organization for Standardization, ISO) считает допустимым при небольшой нагрузке.

Как характеристики помещения определяют температуру

Говоря о температуре в дата-центре, мы имеем в виду не только конкретное оборудование (оно может быть разной мощности и плотности размещения), но и конкретное помещение с его особенностями.

Если серверная обслуживает небольшую компанию и находится в цокольном или подвальном помещении, с охлаждением справится бытовая сплит-система.

Для охлаждения полноценного дата-центра учитывают близость почвы, особенности прокладки инженерных коммуникаций, площадь помещения, а также стройматериалы и другие факторы.

Больше всего на температуру влияет площадь: чем она меньше, тем быстрее растет температура. И наоборот: чем просторнее серверная комната, тем лучше и быстрее рассеивается тепло.

Читайте так же:
Вай фай в спящем режиме что выбрать

Материалы разной теплопроводности тоже влияют на процессы теплообмена. Если заменить стены и перегородки из гипсокартона на бетонные стены, а подвесные потолки на железобетонные перекрытия, сохранив толщину, эффективность охлаждения возрастет.

Если стены серверного помещения контактируют с улицей, а не с другим помещением, температура внутри будет зависеть от окружающей среды. Хуже всего в солнечные дни, когда с южной стороны стены дополнительно нагреваются. Летним днем при +38 °C серверы, работающие в небольшой комнате 3×3×3 м, будут перегреваться, так как температура в помещении повысится на 4–7 °C. Цифры приблизительные, потому что все зависит от толщины стен и стройматериалов.

Варианты охлаждения серверных

Прецизионный кондиционер

Кондиционер для большой серверной. Самый дорогой, но далеко не всегда оптимальный способ.

Слово «прецизионный» сразу ассоциируется с точностью. Увы, большинство «прецизионных» серверных кондиционеров поставляется с On-Off компрессорами, и ни о каком точном поддержании температуры даже речь не идёт, разбег 2-3 градуса в лучшем случае.

Следующий минус – шум. Обычные прецизионные кондиционеры для серверных — это моноблок с выносным конденсатором. К немалому шуму вентилятора испарителя добавляется шум от компрессора. Хорошо, когда серверная – выделенное необитаемое помещение. Но работать в комнате с работающим «прецизионником» (а бывает и такое) – крайне утомительно.

Цена. Стоимость прецизионного кондиционера – в два-три раза выше полупромышленного инверторного «японца» той же производительности.

Возможно, их единственный плюс – выносной конденсатор, потенциально позволяющий работать прецизионному кондиционеру зимой при более низких температурах, чем обычный кондиционер с зимним комплектом.

Сплит-система

Самое распространённое решение для охлаждения серверных комнат, одновременно универсальное, доступное и недорогое. Самая маленькая «серверная», которую видел автор статьи – шкаф из стеклопластика размером 2м*1м*0,4м, расположенный в комнате айтишников. Естественно, кроме бытового настенного сплита туда ничего поставить было невозможно.

Большинство руководителей организаций всё-таки понимают степень риска потери данных на серверах, и покупают японские кондиционеры для серверной комнаты. Хотя основной тренд российского рынка на удешевление средней стоимости кондиционеров начинает проявляться и здесь.

Предпочтительнее ставить полупромышленный кондиционер для серверной с зимним комплектом, потому что в полупром, даже маленьких номиналов от 9000-12000 BTU, всегда заложен повышенный запас прочности: более надёжный компрессор, увеличенная площадь теплообменников, больше защитных функций.

Приточная вентиляция зимой

Приточная установка в серверной

Один из вариантов системы free-cooling. Суть системы – собирается наборная приточная установка, и регулирующие заслонки управляют притоком уличного холодного воздуха. Обычно комбинируют со сплит-системой (для работы летом). Главный плюс – бесплатный уличный холод заменяет кондиционер зимой, экономия на электричестве и ресурсе сплит-системы. Минус – не везде возможна установка. Такие системы часто используют, например, на базовых станциях сотовой связи.

Расчёт кондиционера для серверной.

Доводилось видеть ситуации, когда мощность кондиционера для серверной выбиралась исходя из площади помещения, как в квартиру. С предсказуемым результатом. Конечно же, расчёт кондиционера для серверной должен строиться на теплопритоках от оборудования. В идеале, нужно знать притоки от каждого сервера/шкафа. Но зачастую этого не указано в документации. Тогда самый простой способ – посчитать мощность блоков питания серверов, или хотя бы мощность источников бесперебойного питания. Получатся цифры с запасом, но это лучше, чем сделать выбор серверного кондиционера с меньшей производительностью.

Следующий выбор – место расположения внутреннего блока. Поскольку тепло от шкафов поднимается вверх, можно сразу утилизировать его внутренним блоком, подпотолочного или кассетного типа. Но есть опасность, что при недобросовестном монтаже или обслуживании, из внутреннего блока вниз может потечь дренаж. Поэтому внутренний блок серверного кондиционера не должен располагаться непосредственно над сервером или любым электрическим устройством. Лучше всего, когда блок расположен немного в стороне, и поток холодного воздуха дует прямо на оборудование.

Так почему же необходимо и важно поддерживать температурный режим в серверной?

В серверной комнате, как правило, располагается крайне важное и дорогостоящее оборудование. Выход из строя или временные простои в работе оборудования могут привести к материальным и финансовым потерям. Заглянем вовнутрь современного сервера и попробуем выяснить, какие компоненты наиболее критичны к изменению температуры.

Жёсткий диск

Является, пожалуй, самым важным компонентом системы. Соответственно выход из строя жёсткого диска в случае отсутствия резервного может стать критичным для организации. Компоненты жёсткого диска являются чувствительными к изменению температуры: к резким повышениям, понижениям и к перегреву. Повышение температуры, как правило, приводит к расширению материала, из которого изготовлены головки, системы позиционирования головки, магнитные диски. Перегрев может привести к отказу жёсткого диска, что в последствии приводит к нежелательной потере важной и дорогостоящей информации.

Оперативная память

Современная серверная оперативная память снабжена системой пассивного охлаждения и не нуждается в дополнительном охлаждении, тем не менее, стоит помнить, что пассивная система охлаждения эффективна только в определенном диапазоне температур. Если температура в серверной комнате будет повышаться, то никакие радиаторы на линейке памяти не спасут от перегрева оперативную память.

Процессор

Современные процессоры обладают системами защиты от перегрева. Их датчики будут сигнализировать операционной системе о перегреве и предотвращать работу процессора на высоких температурах.

Наборы микросхем на платах

Так называемые северные и южные мосты компьютера также являются мощными выделителями тепла. Обычно указанные контроллеры снабжены радиаторами пассивного охлаждения, но и они чувствительны к изменению температуры воздуха в серверной.
Суммируя все вышесказанное про компоненты сервера, можно с уверенностью сказать, что при определенных диапазонах температур встроенная система охлаждения сервера достаточно эффективна. В ситуации, когда температура выше рабочего диапазона, система охлаждения может не справиться с задачей отвода тепла. Также необходимо избегать резких температурных скачков, что может привести к потере свойств элементов материнской платы сервера.
В серверной комнате может быть сконцентрировано некоторое количество дорогостоящего оборудования, которое критично к повышению температуры, к резким изменениям температурного режима, в связи с чем необходимо правильно подходить к выбору системы охлаждения серверной. Необходимо позаботиться о резервном кондиционере и о системе контроля управления кондиционерами, в случае если возникнет неисправность основного кондиционера. Также необходимо помнить, что большинство современных устройств производит достаточное количество тепла и может за короткий промежуток времени значительно повысить температуру в закрытом помещении. Необходимым также является и правильный выбор сплит-системы, отвечающей требованиям серверной комнаты.

Читайте так же:
Видеокарта gigabyte geforce gt 710 тест

Заключение

Хотелось бы напомнить, что современное вычислительное оборудование разрабатывается с учетом работы в определенных климатических условиях. Поэтому эксплуатация оборудования в условиях, отличных от рекомендованных заводом-изготовителем, может привести к выходу из строя оборудования и, как следствие, отсутствию гарантийного ремонта. Учитывая все изложенное выше, рекомендуем использовать надежные системы контроля климата серверной и надежные системы поддержания климата в серверной.

Мы — профессиональная инжиниринговая проектно-монтажная компания. На нашем сайте Вы можете получить коммерческое предложение и найти необходимую информацию.

Охлаждение серверной «ЕвроХолод» реализует на вашем объекте «под ключ». По вопросам, связанным с серверной, звоните по телефону +7(495) 745-01-41 .

Чтобы получить коммерческое предложение, напишите запрос на e-mail или отправьте быструю заявку

Получить коммерческое предложение

Получите коммерческое предложение по вашему объекту, отправив сейчас быструю заявку.

Охлаждение ЦОД. Кондиционирование серверных помещений

При создании серверных помещений (центров обработки данных) большое значение уделяется проблеме создания оптимальных условий по поддержанию необходимых температуры и влажности в помещении. Используется для достижения этой цели — специальное оборудование — прецизионные кондиционеры. Для обеспечения безотказной работы данного оборудования подбор и установка осуществляется на основании проектных работ (работ по проектированию систем кондиционирования серверных помещений).

Пример построения системы кондиционирования в ЦОД.

Создание в серверной постоянных параметров климата настолько важно, что в странах Европы сервер не ставят на гарантию, пока в серверной не установят прецизионный кондиционер.

Требования к работе климатического оборудования в серверной следующие:

  • Помещения нуждаются в поддержании постоянной температуры и иногда влажности и чистоты воздуха.
  • Определенный температурный режим должен поддерживаться круглосуточно и круглый год.
  • Установка должна давать сигнал о возникновении неисправности или выходе температуры за рамки допустимого диапазона.

Кондиционирование серверной с помощью прецизионного кондиционера — это наилучший с технической точки зрения – вариант, поскольку:

  • поддерживают температуру с точностью до 0,1 град.
  • могут работать при температуре наружного воздуха (-35 ) град.С
  • позволяют реализовать любые типы управления
  • поддерживают стабильную влажность и чистоту воздуха
  • срок службы оборудования превышает 10 лет

Стоимость таких кондиционеров в 5-10 раз выше, чем бытовой сплит-системы.Особенность системы кондиционирования серверных – 100%-ое резервирование. Один кондиционер поддерживает заданную температуру, а другой служит резервом на случай неисправности в первом. Логично при этом обеспечить одинаковую выработку ресурса на обоих кондиционерах.

Надежность
Самое главное требование к системе кондиционирования серверных и подобных помещений — надежность и еще раз надежность. Прецизионный кондиционер имеет ресурс минимум в 5-6 раз больший, чем у бытового кондиционера. Доверие к прецизионным кондиционерам очень велико. Ведь они рассчитаны на работу 24 часа в сутки, 7 дней в неделю, 365 дней в году, в сумме — 8760 часов в год. И так 10 лет. Для сравнения, бытовой кондиционер рассчитан только на 15 процентную годовую нагрузку — 1200 часов в год. Поэтому бытовой кондиционер выработает свой ресурс (обычно восьмилетний) в течение одного года!

Точность поддержания температуры
Бытовой кондиционер может поддерживать в помещении температуру с точностью не более 5 градусов, тогда как прецизионный кондиционер — 0,2-1 градус.

Работа в жестких климатических условиях
Бытовые кондиционеры хоть и работают в широком диапазоне температур наружного воздуха, их возможностей все равно недостаточно. Скажем, повышение температуры окружающей среды приводит к резкой потере эффективности внешнего блока, и в какой-то момент внешний блок просто отключается. Обычно это соответствует температуре окружающей среды порядка плюс 40-45 °С. Зимой, при использовании дополнительных устройств (так называемый «зимний пуск») бытовые кондиционеры могут работать при минимальной температуре наружного воздуха минус 30 градусов. Это предельная температура для бытовых кондиционеров. Прецизионные системы кондиционирования воздуха могут работать в диапазоне температур от минус 60 до плюс 60°С (в некоторых случаях диапазон может быть еще шире). Одним из главных достоинств бытовых сплит-систем является тот факт, что во внутреннем блоке располагается только вентилятор и испаритель, а самое шумное оборудование — компрессор — располагается во внешнем блоке. Но при низких температурах окружающей среды в компрессоре загустевает масло, что приводит к снижению его ресурса. При очень низких отрицательных температурах масло может настолько загустеть, что при пуске компрессор выйдет из строя. В прецизионных системах кондиционирования компрессорный агрегат располагается во внутреннем блоке, а не в наружном. На улице расположен только теплообменник и вентилятор. Поэтому, теоретически, прецизионный кондиционер может работать при любом морозе.

Вентиляция серверной комнаты. Кондиционеры для серверных помещений

Надежное решение для современных Центров обработки данных

Серия Liebert XD-экстрим.
Системы локального охлаждения серии Liebert XD выпускаются в нескольких конфигурациях. Важным элементом XD является экологически безопасный фреон, применяемый в качестве хладоносителя, что позволяет существенно сократить энергопотребление систем Liebert XD. Хладогент используется при низких давлениях и превращается при ком-натной температуре в газ, что делает его идеальным веществом для применения вблизи электронного оборудования.

Кондиционирование серверных помещений, ЦОДСистема управления и мониторинга.
В связи с растущим тепловыделением электронного оборудования, компания Emerson Network Power предлагает надёжное, безопасное и конкурентоспособное решение для любых задач с высоким, даже более 20 кВт на стойку, тепловыделением.
В рамках подхода Liebert X-Treme, компания Emerson Network Power предлагает единую архитектуру решения по обеспечению охлаждения и электропитания, обеспечивающую стабильную работу оборудования с разными уровнями тепловыделения.

Читайте так же:
Динамики для самодельной акустики

Уровни решения проблемы тепловыделения оборудования современного ЦОД

Охлаждение серверной комнаты. Системы кондиционирования цодПри тепловыделении до 5 кВт на стойку используются прецизионные кондиционеры Liebert-HIROSS, размещаемые в помещении между стоек с оборудованием, образуя «горячие» и «холодные» коридоры

Требования к оборудованию серверных помещенийПри тепловыделении от 5 до 16 кВт на стойку используются прецизионные кондиционеры Liebert-HIROSS плюс дополнительные модули охлаждения серии Liebert XD в соответствии с технологией открытой архитектуры.

При тепловыделении до 24 кВт на стойку (оборудование с исключительно высоким тепловыделением) используется специальная технология охлаждения внутри стойки – Liebert XDFN.

Использование Адаптивного Охлаждения и Электропитания как единого Архитектурного Решения – это мощное средство, которое позволяет справиться с проблемой высокого тепловыделения, а также обеспечивает высочайшую гибкость и возможность модульного расширения системы в сочетании минимальной эксплуатационной стоимостью.

ПОДХОД LIEBERT X-TREME

Дополнительно к основным кондиционерам устанавливается серия кондиционеров доводчиков Liebert XD, предназначенных для работы в помещениях с рядами стоек, образующими «холодные» и «горячие» коридоры; дополнительное охлаждение направляется в нужный момент на те участки, где оно необходимо; при этом используются следующие блоки:

Прецизионные кондиционеры. Система кондиционирования цод
XDO – блок охлаждения, монтируемый к потолку XDV – блок охлаждения, монтируемый на стойку

Блоки XDO и XDV обеспечивают охлаждение, не занимая дополнительного рабочего пространства; они могут работать совместно с основным оборудованием, и используется где тепловыделение оборудования достигает 16 кВт на стойку.
Это идеальное решение проблем возникновения зон перегрева или затруднённого охлаждения в помещении, а также внутри стоек.
Блоки серии Liebert XD используются для дополнительного охлаждения, основное охлаждение и отвод тепла обеспечивают прецизионные воздушные кондиционеры Liebert-HIROSS.
Благодаря тому, что блоки семейства Liebert XD в качестве хладоносителя используют фреон, а не охлаждённую воду, безопасность оборудования гарантирована даже при возникновении течи или повреждении труб. Подача хладагента осуществляется насосом и при этом не используется фреоновое масло.

Для подсоединения блоков Liebert XD к системе труб, используются гибкие соединительные шланги и быстроразъемные соединения. Таким образом, архитектура систем XD легко приспосабливается к любым особенностям планировки помещения и размещенного в нём оборудования, а также существенно облегчает расширение системы по мере увеличения потребности в охлаждении
Распределение температурных полей и движение воздуха показано на данной модели Дата-Центра, заполненного стойками с оборудованием. Для охлаждения используется Liebert XD совместно с прецизионными воздушными кондиционерами Liebert-HIROSS.
Блоки XDO крепятся к потолку и подают воздух в «холодный коридор» между рядами. Воздух проникает в стойки, поднимаясь, проходит через них и попадает в «горячий» коридор, откуда снова возвращается в блок XDO для охлаждения.
Прецизионные воздушные кондиционеры Liebert–HIROSS также обеспечивают подачу обработанного воздуха в «холодный» коридор под полом, контролируя при этом влажность и температуру помещения.
В связи с повышающимися тепловыми нагрузками от оборудования в помещениях современных Дата-Центров, компания Emerson Network Power может предложить систему с исключительно высокой способностью охлаждения, обеспечивающую экономичное и высоко эффективное решение этой проблемы.
Liebert XD – это гибкая и высоко эффективная система охлаждения для снятия теплопритоков от оборудования и борьбы с зонами перегрева.

Другой подход к решению проблемы высокого тепловыделения состоит в охлаждении непосредственно стоек с оборудованием, а не всего помещения.
Работа климатического оборудования в сервернойLiebert XDFN – технология замкнутого охлаждения внутри стоек. При этом осуществляется охлаждение непосредственно серверов, а не рабочего помещения; обеспечивается безопасное решение, защищающее от проблем, связанных с перегревом оборудования, предусматривается возможность полного резервирования, защиты по электропитанию, пожарная сигнализация и аварийная вентиляция.

Благодаря огромному опыту создания систем прецизионного климатконтроля и систем бесперебойного электропитания компания Emerson Network Power разработала уникальное решение для серверов, предусматривающее как внутреннее охлаждение, так и встроенное резервное бесперебойное электропитание.

Технология охлаждения Liebert XDFN была специально разработана для уже существующих и новых Центров обработки информации; она призвана обеспечиваить эффективное, экономичное и быстрое решение проблем охлаждения; это оптимальное решение для случаев, когда перебои в работе оборудования недопустимы, либо предвидится расширение объекта.
Стойки Liebert XDFN могут быть установлены не только в специализированных помещениях для серверных и центров обработки и хранения информации, в принципе они могут быть установлены в любом помещении, даже для этого специально не предназначенном.

Стойка может быть полностью заполнена серверами, рассчитанными на стандартные 42 1U стойки.
Модульная конструкция стоек Liebert XDFN даёт возможность резервирования, позволяет легко заменять вышедшие из строя модули, обеспечивает гибкость и экономию рабочего пространства в помещении центра
Модули Liebert XDFN могут быть скомбинированы для совместной работы, это очень важно в тех случаях, когда в информационных центрах требуется особо высокая мощность охлаждения; при этом дополнительный модуль может обеспечивать полное резервирование охлаждения в стойках XDFN.
Все блоки соединены в локальную сеть, и, в случае выхода из строя одного из работающих блоков, резервный блок может быть немедленно включён в работу; система микропроцессорного управления обеспечивает также периодическое чередование основных и резервных модулей.
В каждой стойке Liebert XDFN предусмотрена также система аварийной вентиляции. Вентиляторы получают электропитание от ИБП обеспечивая защиту от резкого повышения температуры в стойке при отключении сетевого электропитания.
Обычно используются модули с автоматическим регулированием мощности охлаждения от 2кВт до 24кВт, или в другом диапазоне работы, в зависимости от заказа пользователя; возможны также версии с охлаждённой водой
Дистанционный контроль и возможность «горячей» замены вышедших из строя элементов позволяют избегать перебоев в работе системы.

Emerson Network Power уже более 40 лет создает системы Воздушного кондиционирования и Бесперебойного питания. Высокотехнологичные решения Emerson Network Power обладают всеми возможностями для эффективной поддержки бесперебойной работы Ваших информационных систем или средств связи.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector