ua-hosting.company
Компания
203,40
рейтинг
9 сентября 2014 в 18:05

Разное → Дата-центр в домашних условиях

Бывает, что любители и ИТ-специалисты создают центры обработки данных в своих домах, размещая оборудование в импровизированных серверных комнатах, гаражах, подвалах или домашних офисах. Таких людей называют серверофилы («server huggers»). Это люди, стремящиеся быть ближе к оборудованию, которое они используют.

Домашние центры обработки данных, или, как их называют, «пещерные ДЦ», играют немаловажную роль в современной жизни и развитии ИТ-технологий. Данные ДЦ, в противовес крупномасштабным дата-центрам, являются первопроходцами в испытании серверного оборудования. Такого рода энтузиасты питают страсть к ИТ и, как правило, одни из первых начинают использовать новые серверные системы, тестируя их в экстремальных условиях.



Причины создания таких центров обработки данных разнообразные. Например: мелкий веб-хостинг, запуск своих уникальных проектов или просто страсть к электронике и ИТ. Какой бы ни была мотивация, такой проект в любом случае требует некоторых адаптаций, включая как доработку питания и сетевых соединений, так и адаптацию и обновление кабельной разводки по всему дому. Предлагаем вам несколько примеров таких проектов.

Облако в подвале


Канадский ИТ-специалист Алан Бодро (Alain Boudreault) имеет в своём арсенале оборудование корпоративного класса от таких производителей, как Dell, HP, Sun, Juniper, IBM и IBM BladeCenter. Стойки с этим оборудованием он разместил в подвале своего дома. Его веб-сайт содержит подробный обзор установки, в том числе и диаграммы всех компонентов. Дата-центр включает в себя облако Open Stack MAAS (Metal as a Service) и несколько систем хранения данных (ISCSI и Fiber Channel).

«Моим первым шагом была установка электроподстанции, позволяющей обеспечить силу тока в 40 ампер при напряжении 240 вольт, т.е. способной справиться при необходимости с нагрузкой 9,6 кВт/час», — рассказывает Алан. Он преподаёт разработку приложений и использует свой ДЦ для тестирования. «Серверы редко запущены все сразу, таким образом средний расход составляет 1-2 кВт в час»,- говорит он. Стоимость электричества в Quebec составляет около 7 центов за кВт. Бодро пишет, что этот тип ДЦ является занятием не для слабонервных.

Центр обработки данных — звезда YouTube


Некоторые владельцы домашних ДЦ размещают видео про них на YouTube. Самым популярным из них является Home Center Data Project, еще один проект в Канаде, разработка которого началась в 2005 году в виде двух компьютеров в шкафу и выросла к 2013 году до более чем 60 серверов. Проект был задокументирован в серии видео, которые набрали более 500 000 просмотров на YouTube. В роликах и на веб-сайте также задокументированы обширные кабельные соединения, охлаждение и процесс усовершенствования сетевой инфраструктуры.



«Данный проект был разработан не для прибыли», — пишет разработчик Этьен Валле (Etienne Vailleux) из Hyperweb Technologies. «Данная установка была собрана в качестве хобби, но через некоторое время она быстро переросла в страсть».

В 2013 году проект мигрировал из одного дома в другой. «Часть фундамента была специально разработана для размещения серверов и кондиционеров»,- рассказал Валле. «В настоящее время проект содержит 15 серверов, емкость соединения которых составляет 60 Мбит/с ».

Удивляем своего провайдера


Иногда люди устанавливают целые хранилища данных. Например, в 2012 году ИТ-специалист, известный как houkouonchi, опубликовал видео своей стойки, которое набрало более 220 000 просмотров на YouTube.

«Установка, на самом деле, производилась не в центре обработки данных. Не многие имеют полноразмерную стойку, способную хранить более 150TB данных»,- писал он. «Стойка крепится через деревянный пол в цементный фундамент дома. Полностью укомплектованная стойка использует всего 1 кВт мощности, но её пропускная способность — это совсем другое дело».

В 2013 году houkouonchi сказал, что с ним связался с Verizon, который был удивлен, увидев пользователя домашнего интернета, генерирующего более 50 терабайт трафика в месяц. Размещение сервера со столь большой генерацией трафика нарушало условия обслуживания для услуги домашнего интернета, и он вынужден был перейти на бизнес-план.

Вот тур по стойке houkouonchi, размещённый в YouTube



Стойки из IKEA


Зачем использовать стандартные стойки для центров обработки данных в Вашем доме, если Вы можете разместить оборудование в стильном столике от IKEA? В одной из домашних реализаций центра обработки данных люди, увлеченные своим хобби, адаптировали шведский приставной стол LACK для комфортного размещения серверов и сетевого оборудования, создав LACKRack. Оказалось, что пространство между ножками составляет 19 дюймов. Такой же является и ширина стандартного слота в специализированных серверных стойках. Импровизированные юниты создавались с помощью уголков, прикрученных шурупами к ножкам стола.



Отсутствие стоек стимулировало появление множества дизайнерских новинок. Франк Деннемен (Frank Dennemen), технологический евангелист PernixData, адаптировал начальную спецификацию LACKRack, чтобы создать переносную 19-дюймовую стойку.

«Мой домашний офис разработан таким образом, чтобы быть всё же офисом, а не центром обработки данных», — пишет Деннемен. «Поэтому я старался разместить 19-дюймовые серверные стойки, не разрушая эстетику домашнего офиса». Разместить такую стойку Вы можете где угодно в доме.



Как должна выглядеть правильная мини-серверная


Итак, Вы — руководитель фирмы и решили организовать серверную в офисе, или же просто энтузиаст, решивший попробовать в жизни всё и построить серверную дома, подвале или гараже. Не столь важно, для чего Вам нужна серверная, если Вы уже решили создать такое чудо, необходимо знать как она должна выглядеть. В идеале серверная должна соответствовать стандарту TIA-569. Список требований к комнате, выделенной под серверную, выглядит приблизительно так:
  • минимальная площадь должна составлять 12 кв.м, а высота потолка — не менее 2.44 м;
  • комната не должна быть отделана легковоспламеняющимися материалами;
  • в комнате должна быть как минимум одна двойная заземлённая розетка, а если строго следовать стандарту, в комнате с площадью 12 кв.м таких розеток должно быть 4;
  • серверная должна размещаться вдали от сильных источников электромагнитного излучения (серверная на расстоянии 2 м от трансформаторной будки — это плохая затея);
  • для освещения в комнате рекомендуется использовать галогеновые лампы, подойдут также и «экономные лампы», которые обеспечат минимальное выделение тепла, хорошее освещение и высокий срок службы;
  • влажность в помещении должна быть на уровне 30-55 % при температуре от 18 до 24 градусов Цельсия.

Требования к самой стойке:
  • ширина стойки должна быть 19 дюймов (482,6 мм);
  • глубина подбирается в зависимости от используемого оборудования: 60, 80 или 90 см;
  • крепежные отверстия располагаются на вертикальных элементах стойки каждые 1.75 дюйма (4.4 см);
  • высота стандартных стоек составляет 6,12, 20, 42 U и т.д.

Оптимальная температура для работы сервера — 20 градусов по Цельсию. Это не значит, что во всей комнате должна быть именно такая температура, она должна быть хотя бы в стойке с серверами. И если Вам не по карману купить серверный шкаф с охлаждением или кондиционер, то Вы можете решить данную проблему с помощью обычных домашних вентиляторов, проявив смекалку и собрав из них стойку, которая будет выполнять ту же функцию, что и охлаждающая дверь в серверном шкафу.

Для минимизации возможных проблем с питанием стоит использовать источник бесперебойного питания. Лучше всего подойдёт ИБП мощностью 5-6 кВА, но если Ваш бюджет ограничен, или Вы не планируете использовать мощное оборудование в больших объёмах, а хотите, к примеру, всего 3 или 4 машины, Вы можете использовать и более слабый ИБП на свой страх и риск. Продавцы-консультанты могут предложить Вам ИБП с различной топологией: Line-Interactive UPS, Passive Standby (Off-Line) UPS и Double-Conversion (On-Line) UPS. Производители утверждают, что наилучшим вариантом для домашних серверов будет Line-Interactive UPS, но это не совсем так. Всё же лучший вариант — это ИБП с топологией On-Line UPS (непрерывного действия), к примеру, APC Smart-UPS RT 5000VA.

Данные советы — это основное, что Вам нужно знать для обустройства серверной и комфортной работы Вашего оборудования.



Хотелось бы добавить, что какой бы заманчивой ни была перспектива размещения серверов у себя дома, стоит помнить и понимать, что будет довольно трудно достичь приемлемого аптайма в домашних условиях. Как пример, приведу пару слов с форума.

Аптайма даже близкого к 5 минутам в год не будет по причине человеческого фактора. Вот, что было в моей практике и приводило к такому низкому аптайму:
  • забыл заплатить за инет;
  • сдох винт в серваке, raid'а не было;
  • забился пылью — надо почистить;
  • сдох вентилятор — надо менять;
  • задели провод;
  • сервак использовался как файлопомойка, закончилось место, потому что записали несколько фильмов;
  • ядро линуха недообновилось, комп не вышел из ребута;
  • провайдер резко сменил настройки dns'ов;
  • мигнул свет;
  • родители решили помыть полы;
  • вывалился из разъема sata-кабель;
  • wi-fi карта, которая раздавала инет, резко зависла и ввела комп в ступор и т.д.




Также необходимо помнить, что:
  • данная затея не из дешевых;
  • Вам будет трудно обеспечить оптимальные условия для работы серверов;
  • в случае пожара и т.п. Вы рискуете не только данными и оборудованием, но и своей жилплощадью;
  • постоянно отслеживать работу серверов возможно только в том случае, если вы постоянно находитесь в пределах быстрой досягаемости Вашей серверной;
  • при длительных поездках Ваш проект будет заморожен, так как оставлять аппаратуру включенной без пересмотра — это большой риск.

Арендовать оборудование в ДЦ куда более целесообразно. Там Ваше оборудование всегда под присмотром. Кроме того, ДЦ строятся исключительно для серверов и максимально оптимизированы для комфортной работы оборудования, Вы избавлены от необходимости покупать дорогостоящее оборудование, а платите за железо только тогда, когда Вам нужно его использовать. Также арендованное оборудование предусматривает наличие рядом специалистов для быстрого решения проблем. И самый главный плюс: Ваше оборудование может находится вне страны Вашего проживания, что в свою очередь может уберечь Вас от визита нежданных гостей.

10 признаков того, что Вы — серверофил


  • Вы предпочитаете большие помещения с кондиционерами и минимумом мягкой мебели, а так же с люминесцентным освещением;
  • постоянный гул и белый шум успокаивают Вас;
  • использование цифрового отпечатка или ручной биометрики для получения доступа в комнаты все еще интересует Вас;
  • Вы не можете пройти мимо грязных или дезорганизованных кабельных соединений, не выражая неодобрения и не качая головой;
  • мигающий зеленый или желтый свет оказывает успокаивающее, почти гипнотическое действие, когда вы смотрите на него;
  • Вам нравится чувство холода от металлических стоек, Вы часто стремитесь коснутся их;
  • Вы думаете, что облако — это то же самое, что и виртуализация, нечто, на что стоит когда-нибудь обратить внимание, но пока нужно решать текущие проблемы пользователей;
  • Вы полагаете, что облачные данные не безопасны, независимо от того, что поставщик говорит Вам;
  • у Вас есть собственные мысли как улучшить работу оборудования посредством прямого воздействия (к примеру замены элементов);
  • Вы питаете страсть к компьютерному оборудованию, всегда пытаетесь его улучшить и найти нестандартные решения для оптимальной работы.

Знаете ли Вы примеры пещерных ДЦ? Возможно, такие умельцы живут в Вашем доме, или Вы сами поставили у себя небольшую стоечку? Поделитесь своим опытом.
Автор: @habit
ua-hosting.company
рейтинг 203,40
Компания прекратила активность на сайте

Комментарии (105)

  • +6
    А меня считают психом, когда видят дома старенький сервер Supermicro в качестве маршрутизатора и торентокачалки.
    • +16
      Наверное не только видят, но и слышат.
      • 0
        На этот счет — я его сделал максимально бесшумным (хотя все равно шумит хорошо). SCSI винты заменил на SATA, огромный вентилятор пересадил с 12v на 7.5 и т.д
    • +6
      А я съехал 3 года назад из квартиры родителей, оставив у них и их котиков круглосуточно работающую рендер-ферму из 5 компов (занимаюсь 3д-графикой как хобби и фриланс) и хостинг из трех компов на шкафу, потому что у провайдера на той квартире анлимный 100 мбит за 300р в месяц с возможностью поднятия тарифа до гигабита (пригород СПБ, провайдер — инфолан).

      Так как у них дома ТРИ кота и собака (все — длинношерстные и бешено линяют), проблема с шерстью стояла очень остро — все кулера забивались просто войлоком до состояния валенков и блоки питания горели ужасно.

      Проблему решил очень эффективно, но неэстетично. Давно хотел написать про это пост на хабр, но руки не доходили. Нужен такой пост?

      Фотки
      image
      image

      Импровизированная стойка на 2 компа:
      image

      image


      • +11
        Простите, что оффтопом, но про неэстетичные, но эффективные решения и котов вспомнилась история…
        ...про Артемку
        image
      • +3
        Не спрашивайте никого, просто пишите.
      • 0
        Вы устранили источники загрязнений?
      • 0
        Конечно нужен
  • 0
    Да, мне с моим «сервером-системником» под потолком есть куда расти…
    • 0
      Что-то вот тоже взгрустнулось.
      Заголовок
      З.Ы. В коробке под упсом — подключенный к упсу автомобильный 45 аккумулятор.
      А сам сервак тоже используется куда ни попадя, и в качестве шлюза (острый глаз айтишника увидит 3 сетевки — да-да, у меня 2 аплинка и ospf между ними) и в качестве торрентокачалки и в качестве тестовой фермы, а также веб и просто куча других сервисов.
      image

      • 0
        Примерно так же использую, но аплинк один, и лежит это все под потолком на полке в коридоре — ни животным, ни ребенку не достать)
        • +3
          я просто бездетный и безживотный)
  • +3
    Да сейчас у большинства айтишников стоит дома постоянно подключенный к интернету компьютер. И зуб даю, в большинстве случаев это не серверное железо.
    У меня даунтайм — пару дней в году — чисто из-за «провайдер + электросеть».
    • 0
      есть необходимость выкачивать некоторые приличные объемы данных, обрабатывать их (не сложные вычисления) и загружать на другие облака результат.
      Древний ушатаный нетбук 9" на атоме прекрасно справляется
  • +1
    Стойки нет, но, со временем, всякие микротики, ddwrt, отдельные компы под свою вики, файлохранилище, git и еще по мелочи, заменились одной физической машиной с виртуалками под KVM. Замеров не делал, но по ощущению даунтайм всей этой инфраструктуры сильно снизился.
    • 0
      Зачем KVM? Почему не OpenVZ?
      • 0
        *Большая изоляция VM
        *Отсутствие особенностей функционирования (может сейчас это не актуально, но в свое время подъем OpenVPN под OpenVZ попил кровушки. Нет, ничего страшного, но дополнительные сложности, которые необходимо знать)
        *Потенциальная возможность поднять не Linux VM (маловероятно, но пусть будет)
      • 0
        Видимо нужен windows-инстант.
  • +7
    В новой многоэтажке вместе с квартирой купил межэтажную кладовку для этих целей. Она как раз находится через стенку от корридора квартиры. Во время ремонта квартиры пробил туда отверстие для трубы 100 мм и все силовые и слаботочные коммуникации из квартиры сходится туда. В кладовке поставил сплитерный кондиционер и купил простенькую серверную стойку. В ней пока живёт один самосборный сервер в 3-хюнитовом корпусе, который используется в качестве файлохранилища, торрентакачалки, интернетараздавалки, VPN-сервера и т.п. Подключён он к простенькому ИБП, который был взят в эксплуатацию с работы, где он долгое время не использовался. Но в планах купить ИБП киловата на 1,5 и АКБ на 100-150 Ah.

    Так же с прошлого года там поселился стабилизатор напряжения на всю квартиру.
    Большую часть года кондиционер в кладовке выключен и температура в ней колеблется в районе 20-25 градусов. Летом — около 28-30. Кондей я включаю только, когда серверу предстоит продолжительная вычислительная задача (чаще всего таковой является резервное копирование). К тяжёлым она относится из-за того, что все винты в этом импровизированном сервере «затрукрипчены».
    • 0
      Какой у вас проц? Современные интелы с аппаратным AES не сильно нагружаются «трукриптом» даже в программном рейде.

      Трукрипт в кавычках, потому что в переносном смысле? Или вы действительно его на сервере используете? Зачем?
      • 0
        Там стоит AMD Athlon 64 X2 Dual Core Processor 5600+. Какой был под рукой — такой и стоит.

        И на нём действительно используется TrueCrypt. Слово «затрукрипчено» я взял в кавычки, т.к. оно жаргонное. Использую шифрование даже на домашнем сервере, поскольку уже имел проблемы с правоохранительными органами. В том числе с изъятием техники. Отдельная история как так получилось, но такое было. Теперь дую на холодное. Этот случай включил у меня режим паранойи — теперь стараюсь шифровать всё и везде. Даже на всякий случай.
        • +1
          Я спрашивал не про осмысленность шифрования вообще, тут вопросов нет — у меня у самого зашифровано все по максимум. Я про выбор средства. У Вас винда что ли? Просто под серверные ОС существуют более подходящие средства шифрования.
          • 0
            Да, там винда. Знаю, что не рационально, но так исторически сложилось (сервер в таком виде работает уже не одну пару лет). А переделать всё руки не доходят. Ну и, чего греха таить, банально лень. Ведь свою задачу сервер и так выполняет.
            • 0
              Ну это как-то противоречит параное против правоохранительных органов, не находите?
              • 0
                Чем? Тем, что проприетарная ОС?
                • 0
                  Да. Из чего следует, что там могут быть заглужки для тех самых органов, о которых Вы никогда не узнаете. Представляете как будет неприятно, когда весь Ваш трукрипт будет вскрыт просто потому, что ключи шифрования уже давно через дыры в ОС слиты куда следует?
                  • 0
                    В целом Вы всё верно говорите. Но если следовать этой логике до конца, то нужно вообще всё ПО писать собственноручно, чтобы исключить возможность закладки. Но никто же этого не делает. Да и сделать это не возможно в принципе.
                    Каждый сам для себя определяет допустимую грань паранойи.

                    А вообще, конечно, я с Вами согласен — желательно использовать СПО.
                    • 0
                      Как-то вы превратно поняли мою логику. Надо использовать открытое ПО, которое использует множество других людей. Тогда есть шанс об уязвимостях в нем узнавать не на собственном плачевном опыте.

                      А использовать шифрование на проприетарных ОС в качестве предохранения от органов — это оксюморон.
                      • 0
                        Смотря от чьих органов.
                        Не думаю, что даже по запросу, Microsoft Rus предоставит доступ к бэкдору в системе, который используются, например, эксклюзивно NSA.
                        Сделают честные глаза как у кота из Шрека и скажут «какой-такой бэкдор?». Вспомните пресс-конференцию со всеми мэйджорами в РФ после Сноудена.
                        Вот если бы там использовался битлокер — тогда, возможно, да.
          • –3
            Чувствую, что вступаю на зыбкую почву холивара, но «серверные ОС» — это Linux?
            В современных реалиях, серверная ОС — скорее какой-нибудь гипервизор.
            • 0
              Поясните свою точку зрения, пожалуйста. Вы считаете, что места физическим серверам совсем не осталось? Даже в контексте данного поста?
              • 0
                Описанные в посте системы используют виртуализацию (указано явно, или подразумевается задачами). Мне кажется что шифровать диск внутри виртуалки неэффективно — полный снапшот действующей ВМ заведётся и продолжит работать, хотя диск внутри неё может быть и зашифрован.
            • 0
              Большинство гипервизоров — это Linux.
    • 0
      Как решали проблему с пылью?
  • +3
    У меня домашняя серверная из большого десктопа для сборки, виртуализации и различных задач для видюхи и hp microserver'а для всех остальных задач. Все это обеспечивают интернетом два стомегабитных линка от разных провайдеров, подключенных через два (для надежности) микротика. Все естественно на упсах. Даунтайма не было давно. Только ради ребутов после обновления ядер.

    • 0
      А можно поподробнее, как у вас микротики настроены? OSPF между ними?
      • 0
        Нет. Микротики настроены коряво и костыльно. Но работают. Мне стыдно это на людях рассказывать. В сети есть куча доков как сделать правильно, просто я их поднимал, когда хотел освоить их ОС и не глядеть в примеры, и пока не дошли руки сделать правильно.
        • 0
          Ну вот, только хотел набраться идей, как правильно их всё-таки разрулить. А то свой второй роутер так и не настроил.
          С доками в сети есть такая проблема, что трудно понять, правильный ли вариант описывается.
          OSPF — это всё-таки правильный путь и идти надо туда?
          • 0
            На том же хабре вагон и маленькая тележка мануалов, как разрулить два провайдера на одном микроте. Если у вас два провайдера и два микротика — настройте между ними VRRP и резервируйте.
            • 0
              На одном микротике разрулить не проблема. Описано действительно много где.
              VRRP, ок. Балансировать нагрузку по аплинкам как? Берём штатный пример балансировки нагрузки: wiki.mikrotik.com/wiki/VRRP-examples Классическое: пакет приходит с GW1 через R1, уходит на целевой сервер, а у того default gateway через R2. Разумеется, ответ будет уходить не на тот аплинк.
              Я без особых проблем могу vlan'ами пробросить физические линки по обоим микротикам и скриптами по on-backup и on-master переключать, где именно включены WAN'ы. Но это правильный путь?
              • 0
                VRRP — это механизм резерирования, но не балансировки. Если вам нужно именно распределить нагрузку, то, вариантов в случае SOHO (т.е. без привлечения BGP) крайне мало — это различные изощрения с фаерволом. вплоть до round robin.
                • 0
                  Меня как раз устраивает round robin (PCC сейчас и работает). Невозможность балансировать одно соединение и обрыв соединения при обрыве связи — это нормально. Не пугает потеря всей связи даже на десяток секунд на всякое переключение автоматики. Не требуется балансировка нагрузки на сами роутеры, один роутер в состоянии обработать весь мой трафик. Но как их правильно сделать два, чтобы отключение одного роутера было скомпенсировано вторым? (частично компенсировано, т.к. физически-то один из двух провайдерских кабелей подключен к отключившемуся роутеру)
                  • 0
                    При использовании VRRP пакет, пришедший на R1 уйдет в аплинк R1 и вернется в него же. Тоже самое и с R2. Так что тут все отрабатывает нормально. Со стороны сервера у вас будет один GW, который между собой будут делить R1 и R2.
                    • 0
                      Ммм, каким образом нормально?
                      vrrp basic
                      GW2 -> R2 -> SRV ок, попали на нужную машину.
                      Но ведь дальше ответ на запрос, по таблице маршрутизации SRV, пойдёт на default gateway — и поймает его именно R1, который в данный момент мастер. Как R1 транслирует пакет через GW2, подключённый к R2?
                      • 0
                        Со стороны клиента это выглядит так:
                        Client -> GW -> Internet.
                        При этом GW может оказаться как R1, так и R2 — зависит от «живости» роутеров и выставленных приоритетов. Соответственно в мир пакет уйдет с src-ip того роутера, кто в данный момент является главным. С возвращением проблем не будет.

                        А вот если вы хотите попадать из интернета на сервер по обоим ip через разные роутеры и разных провайдеров — то это либо шаманство на сервере с pbr, либо на роутере делать одновременно dst-nat и src-nat. Причем в src-nat подставлять не VRRP-IP, а «честный» адрес.

                        Ну еще можно настроить dyndns и скриптами подставлять текущий «живой» адрес
                        • 0
                          Тема всё-таки о серверах в домашних условиях. Так что, естественно, меня интересует путь из интернета внутрь. Наоборот действительно было бы просто.

                          При dst-nat и src-nat потеряем remote addr во всех логах, что совсем неинтересно.
                          Patrol Boat, River — кажется, я не туда попал. Для Policy based routing требуется настраивать каждую систему в сети. Хоть у меня всего с десяток виртуалок крутится, но неудобно же.
                          dyndns — теряю один входящий канал, хоть он и работает как исходящий, что уже лучше, но всё равно плохо.
                          Если уж скриптами и подпорками — то как выше описал завести на каждый из микротиков по одному физическому линку провайдера, а второй пробросить через vlan. Настроить каждый как независимый роутер с парой GW, затем банальный VRRP, который скриптами включает и выключает интерфейсы. На стенде собирал, но пахнет идея как-то странно.

                          Из того, что видел в мануале и пока не знаю, могут ли помочь — это OSPF или MPLS. Стоит углубляться или это инструменты для других задач?
                          • 0
                            Плюс (и минус одновременно) микротика в том, что очень многое можно допилить скриптами/руками и т.д. В итоге в одном случае можно получить довольно гибкую конструкцию, в другом — велосипед с квадратными колесами.
                            OSPF/MPLS — это не про вас.
                            • 0
                              Спасибо за консультацию.
                              Буду думать дальше…
    • 0
      Вы — это я. Тоже стоит RB2011 и Microserver. Провайдер, правда, один, ибо нет потребности в стопроцентно бесперебойных интернетах.
  • 0
    «В настоящее время проект содержит 15 серверов, емкость соединения которых составляет 60 Мбит/с ».
    А можно тоже самое, только без online-переводчика?
    И всё-таки сколько там серверов — 15 или 60? У вас в статье в двух абзацах, идущих практически один за другим, противоречивая информация.
    • 0
      Вообще-то там сказано, что к 2013 году дошло до 60. А настоящее время — 2014-й. Исключаете возможность продажи 45 серверов?
  • +1
    "… одни из первых начинают использовать новые серверные системы, тестируя их в экстремальных условиях.."

    Ну это надо быть ну очень большим энтузиастом, ведь это и стоит не по-детски. Я думаю, довольно большая группа сервероголиков делает свои серверные по принципу «я тебя слепила из того что было». Бывает так, что сервера списываются, и когда в утиль отправляются вполне себе рабочие супермикры с деллами — их тащат домой. Либо слегка устаревшее железо или там запчасти можно найти за приемлемые деньги. Я одно время тоже фанател от этих железок, пока счёт за электричество вырос до неприличных размеров — теперь просто три маленьких NAS накопителя да слабенький сервер на Атоме.
  • +2
    Н-да, я с одним своим домашним микросервером, одним Wi-Fi роутером, одним PoE коммутатором кажусь себе крайне ограниченным в оборудовании :)
  • 0
    Для маньяков такого дела: вовсе необязательно держать это все дома, можно устроиться в компанию с хорошим демо-стендом и играть в рабочее время с такими железками, покупку которых ни один домашний бюджет не потянет (ну разве что какого-нибудь стартапера-мультимиллионера), типа all-flash систем, блейд-серверов и тд.
  • +2
    одно время пользовал как сервер ноут с неработающим монитором… проработал в качестве сервера года 3-4(torrent, proxy, vpn, file share, nat) вторая сетевая карта была подключена через usb, ребутал раза 4-5. Первый раз что бы обновить ядро под freebsd, т.к. у меня не хотел заводиться hp m1005, не помогло, переставил на centos, это собственно 2 ребут, максимальный аптайм был порядка 400 дней, было бы дольше но отключили электричество больше чем на сутки, ибп+акума ноута хватило часов на 10-14. это стало последней каплей из списка шум, моральное устарение ноута, спортивный интерес. как итог я перешел на роутер с ддврт
  • 0
    Увы, я уже лет пять не могу спать нормально, если не слышу звук пары крутящихся DDYSок (IBM DDYS — SCSI винты, первый блин комом на 10000 оборотов от IBM, характерный допустимой температурой 85*С и диким уровнем шума). Если оные не слышно — просыпаюсь постоянно, если слышно — хватает 5-6 часов сна.
    • +2
      Записать и проигрывать через колонки, а то помрут рано или поздно, будете бессоницей мучаться.
      • 0
        Они мрут раз в три года, просто осыпаясь. Звук работы без нагрузки при этом не меняется, как выведу из эксплуатации — оставлю в сервере тупо сохранив подачу питания — ещё лет десять проживут =)
        • 0
          После осыпания звук будет уже не тот.
  • 0
    Вопрос с торрентами решил безвентиляторным компом на три харда, он же плеер под XBMC. Но сейчас задумался захостить кое-что у себя дома. Никак не пойму как в домашних условиях решается вопрос с внешними IP? У меня провайдер разрешает только один постоянный внешний IP на один договор. Вот собрался уже с мыслями под сервак подключить второй интернет-канал. А если серваков десяток-другой, то как быть? Может кто подскажет. Спасибо.
    • 0
      Поискать другого провайдера? Лично у меня таких заморочек нет — лишь бы платили :)
    • 0
      Если десяток другой — никак, заказывать адреса, просить провайдера, если 1 сервер и пара портов — решается роутером и прокидыванием портов.
    • 0
      Проксю на одном поднять, которая гоняет трафик на остальные 9. Тоже самое понадобилось сделать недавно, донастроил апач, он проксирует на другую машину запросы.
    • 0
      ipv6, правда печалит то, что на сегодняшний день он не сильно распространен
    • 0
      вообще у меня на 1м ИП 3 домена вертится — свой, друга и сейчас он попросил сестре виртуалочку для owncloud'а сделать.
      Все это чудо разруливает nginx (https тоже).
      Так что если нагрузка не большая, и сервисы не требуют строго отдельных ИП, то почему бы и не на 1м ИП?
      В сухом остатке: NAT + nginx — наше все. =)

      ЗЫ: мой пример — это мой пример. У вас могут быть иные требования…
  • +1
    У меня в двух квартирх 3 сервака, одна старая, хорошая машина Dell Precision 490 с ксеонами под виртуалки тестовые и всякие самосборные помойки-качалки
    korphome.ru
    Кстати аптайм у основного сервера вподне приличный для дома :)
    Но вообще уже довольно давно хочется небольшую 19" стоечку на колёсиках и туда пару серваков и хранилочку, но всё упирается в отсутствие оборудования. Можно конео и на авито старого железа накупить, но мне как ITшнику интересно всё же работать со свежим железом, ибо от старого уже толку в плане «познаний» не так уж много.
    • 0
      Шкаф на колесах это круто, но как в него засунуть что-то типа SC5400 ителовского, ему метр глубины шкафа нужен =(
      • 0
        Ну можно не шкаф, а отрытую стойку — пусть зад торчит :)
        • 0
          Можно от 1 до N столиков, купленных в Икее по 349 целковых, объединить в LACKrack нужных габаритов (по длине и высоте).
  • +4
    Теперь я спокоен, что мои суммарные 52 xeon ядра, 228 гб ram и 1 tb ssd + 16 tb hdd рядом с рабочим столом это норма, шумновато конечно бывает, но на полную они работают 3-5 часов в неделю.
    • 0
      Это дома или в офисе?
      Если не секрет, для каких задач это всё используется?
      • +2
        Дома.
        Пишу распределенный софт для обработки больших текстовых массивов.
        Бывает такая задача: приносят винчестеров на N-tb, нужно восстановить всю удаленную инфу, построить поисковый индекс по всему извлекаемому содержимому (в основном доки\хлс и outlook архивы с сотнями тысяч email ) и предоставить удаленный интерфейс для работы с этим.
        Типичный сетап — python + zmq, mongodb\postgresql, elasticsearch, ну и всякие специфически вещи типа apache tika и т.п., в зависимости от формата данных.
  • +1
    image
    Лет 10 назад у меня было так :)
  • +6
    У меня стойка на балконе стоит:
    фото
    image
    • 0
      У тебя солнечная сторона? если да. то как решил вопрос с диким нагревом от солнца?
      и собственно отсутствие солнца в квартире не смущает?
      • +2
        Вечером солнечная, оборудование ест 5-6кВт, заведен отдельный кабель от щитка, кондей ставить уже не было возможности, поэтому пришлось проточку делать, в одном окне 4 вентилятора, во втором «фильтр» (материал для парников натянут), промывать приходится раз в месяц. Собирал это ровно год назад, за все время сдохло 2 вентилятора (от пыли) в блоках питания, после замены все продолжило работать. Пол года назад собрал умную розетку (и переделал подключение вентиляторов), чтобы вентиляторы отключать в зависимости от температуры.
        Еще фото
        imageimageimage

        Это же только балкон без солнца, а рядом с балконом окно, поэтому с солнцем все хорошо.
        • 0
          А как оно зимой себя ведет? Или балкон отапливаемый?
          • 0
            Неотапливаемый, вентиляторы полностью выключаются, окно где фильтр полностью закрываю, и он сам себя обогревает.
          • 0
            а если, дверь на балкон открыть, то и дома будет теплее, но и шумно
            • 0
              я уткнул две супермикры мордами в пол на балконе. окно открыто, вентилятор большой дует наружу. пережило уже 2 года. снег и ливень просто не пробиваются через вентилятор.

              а в качестве отопления пара майнеров с радеонами еще стоит. и датчики температуры и влажности рисуют в нагиосе синусоиды почти
    • +1
      Я насчитал 7 серверов. Под какие задачи такая стойка?
      • +1
        7 белых коробок — асики, майнят биткоины. В самом верху 1u сервер, на стойке еще NAS стоит.
        • +1
          И как успехи в деле биткоинов?
    • 0
      Во! Хочу так же! А у вас при этом рабочее пространство случайно не на балконе тоже?
      • 0
        Не, там очень шумно и ветрено, даже пришлось шумкой обклеить дверь.
  • +1
    У меня полная стойка в спалъне стоит. Это как-нибудъ лечится?
    • +2
      Покупкой дома/квартиры по-больше? Этим кстати многое очень лечится, но новое добавляется. :D
    • 0
      Выше есть комментарий. Автор выкупил тех помещение рядом с квартирой.
      Если последний этаж можно, попробовать выкупить у собственников технический этаж (чердак). В новых домах это полноценный этаж и некоторые там делают продолжение квартиры. В нашем микрорайоне есть такие предложения на продажу с дисконтом 50%.
    • 0
      Нет, но надо будет задуматься о лечении собственного здоровья и психики, когда не сможете без её шума спать.
      • 0
        По-моему, не мочь спать без шума — глупость, а не мочь ничего сделать с шумом — лень. Сплю в берушах уже лет 15, все отлично. В те моменты, когда беруши надо менять, а я не купил их, или сплю не дома — не страдаю паранойей и сплю без них.
  • +1
    Спасибо, аж теплый ветерок подул) Как же хочется все бросить и вернутся к этому…
  • +1
    Ну не знаю, серверная дома — это уже обыденность. А вот кто из вас собираясь в путешествие в теплые края вместе с фотиком и видеокамерой берет маленький переносной сервер?
    • 0
      А как же!
      Вот такой вот, например


      Перепрошитый андройдный свисток — и WiFi «отельный» через него и торрент ночью докачал со свежей серией Strain, и всё такое.

  • 0
    Многие в наше время стали стервофилами на волне биткоиномайнии и сумели на своей шкуре прочувствовать все прелести поддержки ДЦ в собственном жилище. Беспрерывный гул вентиляторов, постоянно выходящих со строя, материящиеся домочадцы, спотыкающиеся о бесчисленные провода, сожженные розетки… эх, романтика, в нынешних асиках уже нет того шарма.
  • 0
    9,6 кВт/час  — с производной не напутали?
  • 0
    А у меня пока дело ограничивается бывшей рабочей станцией в роли сервака с трема хардами в пятом рейде. Как только появится возможность купить свою квартиру — буду думать про полноценный узел, с коммутационным шкафом как минимум. а лучше стойкой полноценной.
  • 0
    Мой домашний сервер недавно переехал вот в такой вот домик:
    • 0
      Даже если один порт под маршрутизатор и один под сервер, то 6 портов под домашнюю сеть это сильно.
      • 0
        У меня 12 по квартире разбросано. :-)
        • 0
          Не приемлете wifi? Или есть другие причины?
          • +1
            Как ни парадоксально, но две линии из них как раз занято Wi-Fi точками доступа. Квартира выходит на две стороны дома и при этом толстые кирпичные стены — одна точка не покрывает всю площадь квартиры.
            Ну а вторая причина — я часто занимаюсь обработкой видео и приходится гонять туда-сюда десятки (а иногда и сотни) гигабайт — по Wi-Fi'ю это делать мучительно долго. Проще ноут кабелем втыкнуть в ближайшую розетку.
            Ну и к точкам, где стоЯт телевизоры, подходит от 2-ух до 4-х линий.

            Скоро уже в утюги будут встраивать поддержку сети — так что коль делал ремонт, то решил зарядиться по максимуму и предусмотреть максимальное количество вариантов.
          • +1
            WiFi иногда подводит очень сильно.
            Да и ситуации, когда он просто исчезает никто не отменял.
            Я купил к рождению ребёнка видеоняню, так одна камера просто наглухо глушила wifi на всех каналах.
            Хорошо, что это у меня дома было, а если бы у соседей?
      • +1
        1. Моя машина
        2. Машина жены
        3. Принтер
        4. Телевизор
        5 и 6 пока не заняты, но один выведен на кухню (на случай если там будет плохой сигнал вайфая и нужна будет доп. точка доступа), один в район рабочего стола для запаса (например подключить ноут, если нужно что-то быстро слить с сервера).

        Вай-фай на стационарных устройствах мне не нравится: скорость плавает, соединение отваливается, подвержен всяким внезапностям вида «сосед купил какую-нибудь китайскую херню, которая гадит в 2.4Ghz»). Благо на этапе ремонта была возможность раскидать витую пару.
  • 0
    У меня всё скромно
    image
    Сейчас добавился ещё один свитч под GPON точкой.
    Заменён верхний блок питания на полноразмерный, в старом вздулись кондеры.
    Этот ящик стоит в общем коридоре, а посему внутри квартиры ещё установлен DAS, подключенный через USB3.0
  • 0
    Сервера в квартире это ненормально

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое Разное