Пользователь
0,0
рейтинг
11 мая 2012 в 19:39

Администрирование → VMWARE vSphere 5.0: Опыт внедрения на примере муниципалитета г. Томска из песочницы

Я не являюсь экспертом, а просто администрирую небольшую сеть, я как любой человек допускаю ошибки, потому описываю все не так как оно правильно должно было бы быть, а как оно было на самом деле. Так что некоторые «ляпы» допущенные мной за время проделанной работы прошу не рассматривать слишком строго.

Введение

На дворе 2012 год. Я уже три года работаю в бюджетной организации под названием муниципалитет города Томска. Если первые полгода пришлось разбираться и «въезжать» в структуру организации сети и «что» и «откуда» растет с точки зрения сетевого оборудования, то последние 2.5 года пришлось потратить на поддержку серверного «хозяйства». А его как оказалось совсем чуть-чуть: лес состоящий из 25 доменов, на каждый 1-2 контроллера + 1-2 файл-сервера + сервер с БД + роутер если подразделение подключено через стороннего провайдера (часто роль первых трех выполнял один сервер, но об этом позже). И так сложились обстоятельства, что оборудование имеет привычку стареть. При этом в последний раз покупка оборудования была в 12.01.2007 – два «новых» сервера уже заметно постарели (5 лет прошло). А выделение новых средств хватало исключительно на поддержку старых серверов, а именно зип-пакета из винчестеров на случай если один в рейде выйдет из строя. На мой постоянный вопрос: «А что мы будем делать, если накроется сама плата рейда?» бывалые администраторы разводили руками. Однако время шло, нештатных ситуаций было все больше, случалось и так, что за ночь вылетали и по два винчестера в одном рейде. Мы (коллектив комитета информатизации администрации города Томска) понимали, что надо что-то менять. Или старые сервера на новые или смотреть в сторону виртуализации.




VMWARE. Знакомство

Знакомство с vmware случилось впервые у меня на 3 курсе (2004) когда я пошел работать в местную контору TOMLINE (Zmodem, evg33 – спасибо Вам) именно там я в первый раз в жизни поставил vmware workstation для того чтобы побаловаться с linux и freebsd и ничего не поломать на работающих серверах. Тогда жутко не хватало ни процессора ни памяти – и выглядело очень уныло и не перспективно. Проводя аналогию могу сказать что приблизительно так же я познакомился с windows 3.11 когда в 5ом классе запускал его из Norton Commander`а смотрел на «окна» запускал в них paint, а потом закрывал и продолжал использовать в качество основной ОС – DOS, все мы знаем где сегодня DOS, а где Windows =). Однако время шло, на дворе был далекий 2009, начались конференции и вебинары посвященные виртуализации. Первые опыты внедренные в работу существующей сети я ставил на vmware Infrastructure – бесплатная софт от vmware, который ставится поверх windows в которой можно разворачивать виртуальные машины и она «умеет VLAN`ы». Дальше больше, большую роль сыграл бесплатный вебинар от Максима Мошкова (я до сих пор не могу понять lib.ru – его проект?). Впервые доступным языком рассказали, а главное показали, что такое HA, Failover, DRS и т.д. и вживую продемонстрировали, как оно работает и ответили на все мои вопросы (очень часто приходится посещать семинары, где менеджеры-продавцы много рассказывают по слайдам-заготовкам, когда же спросишь чуть в сторону – ответить ничего не могут, если это читают представители vmware: пожалуйста, выделяйте тех специалиста для таких презентаций).

VMWARE: Внедрение

Конец 2009 выдался довольно интересным. В результате вступления в должность нового мэра весь аппарат мэрии (большая его часть) перешел на мобильные устройства. Если раньше все что было нужно это ноутбук с интернетом и покупка wi-fi точек на каждый этаж полностью решала все проблемы и потребности, то с приходом нового руководства требования «немножко» подросли: электронный документооборот должен был работать на всех мобильных платформах: windows mobile (коммуникаторы), iOs (айфоны уже были и немного позже появится ipad), symbian (по прежнему есть любители NOKIA) — и все это должно работать и поддерживать корпоративную почту и разумеется «надо еще вчера». Именно тогда я в первый раз столкнулся с нехваткой серверов. Сервис нужен. Сервера нет. Зашли мы в серверную – подумать. Вижу контроллер домена – все как надо на отдельной железке, рядом сервер под оракл – собирает статистику посещения муниципального сайта. Ну и пришла в голову идея виртуализировать эти два сервера. И вот свежепоставленный esxi 4.0 зарегистрированный на сайте vmware стоит в нашей сети. Как известено одинокостоящий гипервизор после регистрации – бесплатен и это хороший маркетинговый ход. Так в администрации города Томска появился первый гипервизор на базе vmware.

Выбираем VMWARE

Если сегодня для меня выбор бренда для виртуализации очевиден, то в 2010 были очень большие дебаты: vmware, xen, hyper-v. Особо крупно эти дебаты развернулись, когда впервые стали возникать вопросы по приобретению площадки для виртуализации, а главное о выделении средств на эту площадку. Каким-то «магическим» образом об этом узнали крупные поставщики серверного железа из соседних городов и начали предлагать и продвигать свои решения. Тут стоит отметить настойчивость microsoft: они молодцы, в далеком сибирском городе про них рассказывали все чаще. Много кто рекламировал hyper-v, но при этом постоянно было слышно: вот-вот и мы догоним vmware – про vmware тоже было слышно многое, но в основном из вебинаров. А вот то, что касается XEN – то тут провал, очень мало информации (в то время). Я честно поставил hyper-v, но как оказалось в 2010 он плохо работал с freebsd, а именно эта операционная система использовалась на серверах находящихся в DMZ нашей сети, которую так же планировалось виртуализировать (при этом посещение семинара «облака без бла-бла-бла» от microsoft 11 апреля 2012 года так же показало небольшое отставание microsoft от своих коллег их vmware, семинар начался со слов: «Ну вот мы и догнали vsphere 5.0 в своем новом windows server 8» дальше идут цифры-цифры-цифры, но оказывается что релиз будет то ли в октябре, то ли в ноябре, а грузится с хранилища оно так и не умеет – если честно, я не понимаю, почему? Я может субъективно смотрю на вещи, но когда вы покупаете хранилище, которое как правило дороже любого сервера и у вас разумеется есть для неё поддержка и запасные винчестеры, зачем использовать локальные винчестеры на хостах? Для чего? Непонятно. Так же были попытки изучать KVM, но отсутствие клиента под windows было первым неудобством, которое сразу не понравилось. Итак – VMWARE: все бы хорошо, но вот цена… При самых скромных подсчетах лицензия получалась в районе 500 000, но в ней не было бы никакого смысла, если нет хранилища и двух идентичных серверов-хостов для организации отказоустойчивого кластера.

Внедряем по чуть-чуть

Так сложились мои должностные обязанности, что в первую очередь я должен был отвечать за работоспособность леса доменов в Active Directory. Когда я пришел на работу то обнаружил порядка 8 «забытых» контроллеров и 2 «не нужных» домена. И если в головном домене (если так можно сказать) все вроде было хорошо, то ошибки в журнал службы каталогов сыпались ежедневно. После исследования причин возникновения некорректно удаленных контроллеров домена, стало ясно: проблемы начинаются, когда на контроллер домена вещают задачи, которые он не должен выполнять. Логично разнести контроллер домена, резервный контроллер, файловый сервера, антивирус и т.д. по разным серверам, но как это сделать, если имеется всего один физический сервер? Вот тут на помощь и приходит vmware со своим гипервизором esxi: на одном физическом сервере мы запускаем столько операционных систем сколько нужно, однако по прежнему зависим от «железа». Если случится что-нибудь с рейд массивом, памятью, материнской платой, то возникнет определенное время простоя и так как контроллер домена будет не доступен, возникнут определенные сложности. Возник вопрос о создании выделенного сервера под резервные контроллеры на базе esxi.

Так устроено большинство корпоративных сетей (сеть администрации города Томска – не исключение), что каждое подразделения приходит по своей оптике и живет в своей подсети (в своем VLAN`е). Если в головной структуре организовать сервер на esxi с виртуальными машинами и прокинуть туда существующие VLAN`ы, то будет возможность создать по резервному контроллеру домена, о котором некоторые «местные» администраторы даже не узнают, которые будут находится в тех же подсетях что и основные контроллеры. В этом случае, если что-то случается с основным контроллером (как показывает практика то стабильно раз в месяц в одном домене да случается), то пользователи авторизуются на втором, всегда есть возможность развернуть ДХЦП, ну а если совсем все плохо с основным (сгорела материнская плата – такое у нас было), захватываем роли и вычищаем ntdsutil`ом данные о старом сервере. В любом случае, это проще чем создавать новый домен с нуля и ходит добавлять компьютеры в новый домен и т.д. (и такое у нас было). Собственно развернуть отдельный esxi хост и поднять на нем такие «резервные контроллеры» получилось довольно быстро. Он стабильно работает уже год и все к нему привыкли.
Отдельно стоящий хост – это замечательно. Но хотелось увидеть все прелести High-Availability. И если сферу (vmware vsphere) можно было использовать в течение 60 дней, то где взять хранилище? Тут на помощь приходит freenas и iscsi. В принципе хорошее решение, но добиться от него стабильности и высокой производительности так и не получилось. Не буду вдаваться в подробности, статья не про это. Проблемы начались в ноябре 2011. На каждых выходных (делаются бекапы, повышается дисковая активность), начали «некорректно» работать рейд-массивы: то винчестер в оффлайн уйдет, то загружается только с 3 раза. Проблемным был один из винчестеров, но пока его вычислили, нервов попортили не мало. А когда это происходит на главном файловом сервере, то это особенно грустно. А тут еще и «кризис места»: нужно бекапить 500 Гб, а некуда. Вот и приходится подключать к серверу внешний IDE винчестер, но из-за отсутствия IDE-шного питания пришлось держать его с открытой крышкой и запитать от обычного компьютера. Что дало перегрев винчестеров, которые не охватывались вентиляторами. Пришлось вынимать пластину закрывающую слот расширения, и протянуть IDE шлейф через образовавшееся окошко. Крышку закрыли, IDE винчестер сверху, температура винчестеров в сервере упала, глюки прекратились. И все это в ожидании нормального хранилища.


Летом 2011 года: в рамках целевой программы появляется возможность обновить серверное оборудование. Провели два аукциона и приобрели один мощный сервер и хранилище. И заложили в бюджет 2012, что в январе будет еще один аукцион на второй такой сервер, а во втором квартале покупаем, снова через аукцион программное обеспечение для виртуализации. Кстати благодаря аукциону сэкономили 9,5% от начальной цены. В результате всё успешно получено и запущено в марте 2012.




Железо

В итоге мы получили:
Сервера
Платформа Intel 1U SR1695WBA (LGA1366, i5500, PCI-E, SVGA, SATA RAID,4xHotSwapSAS/SATA, 2xGbLAN, 8DDR-III, 2*450W); Intel Xeon X5675; 64 GB RAM – 2 шт
Контроллеры:
LSI Logic Host Bus адаптер SAS 9205-8e SGL (LSI00285) – 2 шт
Qlogic iSCSI Dual Prt PCIe HBA – 3шт
Система хранения данных
LSI Server ACC DRIVE CHASSIS/CDE 2600-12 со встроенным iSCSI и Raid контроллером LSI SERVER ACC Raid ISCSI SAS CRU/2600 2 Gb M102248 — 1 шт
SERVER ACC HDD 2TB 7.2k SAS/44354-00 M102349 PACL LSI – 12шт
Идея: все высоконагруженные сервера перенести на отказустойчивый кластер состоящий из двух хостов (два новых сервера) которые будут подключены к хранилищу по SAS освободившееся сервера (поновее, у которых есть PCIe слот) подключить к хранилищу по iscsi (еще 4 сервера). Как видно на оптику денег не хватило, а SAS вроде как должен устраивать. При этом LSI заявил о выходе SAS HBA свитча, который позволит подключить еще больше серверов к хранилищу по SAS.
Из 3 заказанных iscsi плат полностью рабочей оказалась только одна!!! Одна стразу не увидела хранилище, вторая как выяснилось позже, не дает грузиться с хранилища.
HBA SAS пришли на месяц позже. Они заработали без каких-либо проблем. На данный момент пока три хоста грузятся с хранилища. Ждем пока заменят по гарантии QLogic-и




Выводы

В результате внедрения VMWARE vSphere 5.0 в корпоративной сети муниципалитета г. Томска можно сделать следующие выводы:
1. Повышена отказоустойчивость работы критически важных серверов за счет создания High-Availabilty кластера.
2. Возможность живой миграции позволяет проводить регламентные работы без прекращения работы критических серверов.
3. Сокращение потребления электропитания с 5,3 кВт/ч до 3,8 кВт/ч (экономия 60 000 рублей в год).
4. Удобство администрирования: единая консоль управления, нет «привязки» к железу.

В общем если у вас 3 и более отдельно стоящих серверов, то виртуализировать несомненно стоит.

VMWARE: PSOD к нам приходит

Все настроено и работает. В результате миграции выключили 6 старых серверов. В планах еще 5. Удобство миграции виртуалок, которых уже 34 не может не радовать. Вообще виртуализации сильно расслабляет – но безусловно упрощает жизнь администратора. И пришел вторник 24 апреля 2012. Как обычно прихожу на работу и вижу аларм от Nagios, что один из хостов не доступен. Монитор же показал мне вот такую картину:

Немножко гугла и все в принципе ясно communities.vmware.com/thread/311457?start=0&tstart=0 (вообще база знаний vmware радует, чего не скажешь про их download center). Но у нас же обязательная поддержка. По условиям Vmware поддержка осуществляется только после регистрации продукта: ок, регистрируемся. Получаем еще один интересный скриншот.

Связываемся с поставщиками, нам рекомендуют отписать на почту: vi-hotline@vmware.com
Пишем письмо. Получаем ответ.
Thank you for requesting support from VMware Licensing Support. Your Support Request Number is 12167833904
A Licensing Support Specialist will respond to your query within 12 hours.

Сейчас 12 часов прошло, но ответа не последовало. А жаль. Ну вот в принципе и все. Сейчас утро 25 апреля. И этот скромный очерк об опыте внедрения VMWARE vSphere 5.0 на примере муниципалитета г.Томска подошел к концу. Если у Вас есть вопросы, предложения, желание обменяться опытом – пишите gtt@admin.tomsk.ru постараюсь ответить всем. Спасибо, что прочли эту статью до конца.
Timur G @my_kassa
карма
12,0
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое Администрирование

Комментарии (48)

  • +5
    Сейчас вечер 11 мая, ждем продолжения (завершения?) повествования о PSOD и поддержке VMware.
  • +2
    а так хорошо всё начиналось! Кстати, заметен новый тренд, использовать хабр как ускоритель реакции различных компаний и сервисов.
  • 0
    Машков прикольный товарищ, был у него на курсах по VMWare 2 раза. И да, lib.ru его проект.
    • +1
      Блин, гребаное автоисправление на телефоне. Конечно же Мошков.
  • +1
    Уже 11 мая… Как же битва с ошибкой? Победили?
    Меня в таких случаях vmware community спасало, тоже были проблемы с LSI, а также Areca. А вот Adaptec тьфу, тьфу второй год пашет. никаких танцев с бубном и мониторится хорошо.
  • 0
    так и есть. Поддержка затянулась: почему то им было сложно привязать наши лицензии к новому аккаунту на vmware и они упорно настаивали, что их нужно привязать к почте указанной в контракте (по их правилам никакой поддержки пока не активируешь лицензии на vmware.com), тем не менее это случилось и вот последний ответ (сегодня):
    Thank you for your Support Request.

    I have created a seperate support request with our technical team to address this issue.

    You will be contacted in due course to offer assistance.

    As the licensing issue has now been fixed I will proceed to close this case.

    If you have any further questions or issues regarding the licensing issue then please contact me in the next 24 hours and ler me know.
    • 0
      Поддержка конечно хорошо, но пишите им на форум.
      Приложите всю нужную информацию.
      А насчёт спорных моментов с регистрацией, привязыванием — можно и позвонить было. Если проблемы с английским — есть и русские.
  • +1
    Хабра творит чудеса. Вот самый последний ответ (буквально пару минут назад, наверное можно и ему прямую ссылку на этот пост скинуть):

    меня зовут Пётр, я работаю в VMware Global Support Services и буду помогать Вам в решении Вашей проблемы.

    Картинка с экраном не прикрепилась. Просьба прислать ее снова.

    Также пришлите логи kb.vmware.com/kb/653 на FTP kb.vmware.com/kb/1008525
    После того как логи будут получены, я свяжусь с Вами для дальнейшей работы.

    С уважением,
    Пётр Рудницкий

    Как собрать логи. kb.vmware.com/kb/1008524

    Как прислать информацию на FTP.http://kb.vmware.com/kb/1008525
    • 0
      отпишитесь в тему, интересно будет почитать. Какая в итоге проблема была и как решили.
  • +5
    рядом сервер под оракл – собирает статистику посещения муниципального сайта.


    O_o

    Что это у вас за муниципалитет такой, что для сбора статистики нужен Oracle?
    • +5
      Обычный роспильный муниципалитет. БД? Оракл! Маршрутизатор? Шеститонник от циски по гыпыэлю без скидок.
      • 0
        Как же прекрасно я Вас понимаю. Но это еще не самое страшное.

        Куда интереснее дела обстоят с технической поддержкой, администрированием и обслуживанием такого ПО и железа. Не владею ситуацией в России, но в Украине, в гос. секторе, все достаточно печально. Интеграторы «впаривают» где только нужно и не нужно самые дорогие и, чаще всего, сложные решения. А томом это железо и софт аутсорсят провайдеры и интеграторы. Официальных договоров конечно же нету — ибо это абсурд (мего дыра в безопасности). Вот Вам и защита информации.
      • 0
        Скорее всего он еще чем-то занят. Или куплен сто лет назад и прикручен к чему было.
        А так — посмотрите население города. И количество муниципальных контор в нем.
        Ничего удивительного, что они пытались сделать 25 доменов в начале. И это даже безо всякого распила.
    • 0
      Классика жанра. Надо оборот торгашам поддержать, вот и впаривают дорогие железяки/ПО.
      Сам с таким сталкивался — хотели закупить дорогущих серверов и ненужного оборудования.
      Перехватил инициативу в свои руки и урезал затраты одной госконторы на 500-600 тыс. руб.
  • +1
    А как решен вопрос с резервированием хранилища? Или мы создали монстра который умерев положит вообще всё что есть?
    • 0
      Хороший вопрос. Постараюсь ответить кратко:
      1. в 5ой vSphere очень «красиво» решен вопрос бекапов
      2. Когда мы говорим об отказоустойчивости мы подразумеваем полную независимость от хостов (гипервизоров) и да: все хранится на хранилище, если оно не доступно то ничего не работает.
      3. Если нам нужна катастрофоустойчивость: нам нужно еще одно хранилище в другом здании и оптика между ними (и уже другой пакет vsphere enterprice plus, в итоге совсем другие деньги)

      в данной работе решался вопрос создание отказоустойчивого центра обработки данных.
      • 0
        Вообще, отказоустойчивость подразумевает независимость от любых отказов, в том числе — от отказов хранилища. Иначе вы просто переносите точку отказа с сервера на хранилище. Для реализации отказоустойчивости в общем случае нормальные хранилища имеют по два контроллера, а в серверы ставится два HBA. Либо — более крутой вариант — два отдельных хранилища с репликацией. А если разнести эти хранилища (и добавить еще серверов, конечно) территориально, то таки да — вы получите еще и катастрофоустойчивость.
        • 0
          Хочу заметить, что на фоне вероятности отказа хранилища, отказ сети между хранилищем и хостами очень маловероятен.

          Так что правильно в другом порядке: сначала репликация между хранилищами, а потом уже multipath.
          • 0
            Я к тому, что есть бюджетные варианты с двумя головами (RAID-контроллерами) в одном корпусе, если помрет одна, то вторая живая. Имелись ввиду не сетевые контроллеры, конечно. Например, даже младшая модель IBM DS3200 может нести два контроллера, причем с горячей заменой.

            А в остальном я с вами согласен. Вернее, мы друг другу и не противоречили, если я вас правильно понял.
            • +1
              Всё это круто работает, пока скедулер процессов ядра не делит на ноль.
        • 0
          спасибо за комментарий, но в нашей комплектации два контроллера на хранилище и оба сервера подключены через SAS HBA каждый к двум контроллерам. По поводу второго хранилища: цена будет совсем другой.
  • +1
    25 доменов???? Да они с дуба рухнули. Сайты для кого придумали?
    • +1
      Ширина каналов для межсайтовых репликаций?
      Было у нас: головная контора — канал 512. Филиалы — около 20. Канал 128. КД в головной конторе. Качество каналов связи — пинг от 100 до 1000.
      Здесь у людей каналы связи в начале были явно такие же.
      • 0
        В Томске? Каналы связи? Такие же? По городу?
        Да ну, нафиг. Там с незапамятных, ещё Соросовских времен (и на его же бабки) городской пиринг с приличными скоростями на нормальных линках.
  • 0
    Слова «муниципалитет города Томска» встречаются 4 раза + тег, «администрация города Томска» — 3 раза. Слегка многовато, зачем их рекламировать? Ну, wmware, пусть и 25 раз, но понятно, но муниципалитет?
  • 0
    > Если сегодня для меня выбор бренда для виртуализации очевиден, то…
    Рекомендую потрогать Proxmox VE 2.x.
    • 0
      спасибо, посмотрю.
  • +5
    Статья выглядит не то чтобы заказной, но какой-то невнятной. Техническая составляющая производит странное впечатление — сначала говорится про парк из сотни серверов, потом оказывается что всё положили на четыре компьютера, причём из них под vmware только два, как я понял. Но потом оказывается что в 25-ти отделениях по ESXi хосту. Потом ещё сервера набежали, но сколько и каких — непонятно. Что с системой хранения, зачем грузиться по сети при четырёх дисках в сервере тоже непонятно.

    Финансовая составляющая в тени. Если это 3 сервера, то можно за копейки купить лицензии, если 25 — то это уже не копейки а скорее тысяч 100-200 долларов в зависимости от лицензии только на софт, причём если бы эти сервера были в одном месте то всё хорошо, так они же разбросаны по городу — тогда ни HA, ни DRS не светит, непонятно почему бесплатный proxmox обойдён стороной — то же примерно позволит сделать.

    Поддержка VmWare описана как отсутствующая, насколько я понял?

    Ну и пассаж про Мошкова просто потряс.
    • +1
      к сожалению опыта написания подобных статей почти нет. Хотелось просто рассказать как оно было по пунктам, если получилось «невнятно» и «непонятно» — прошу прощения, постараюсь исправится. По поводу организации сети, постарался структурно показать что «было» и что «стало», надеюсь станет понятнее а не наоборот:
      • 0
        Не понятны пара моментов:
        1. все таки как решили вопрос с бэкапами? Куда бэкапитесь с хранилища? Объемы данных видимо немаленькие (на всякий случай уточню: речь о оперативных бэкапах, своего рода защита от «ой я тут файл случайно удалила» на всех уровнях от бухгалтера до сисадмина), а если сделат какую-никакую глубину (неделя-две хотя бы) и учитывать всевозможные БД и сложные системы, которые инкрементно не особо побэкапишь, то объемы вырастают неслабо.
        2. повышение отказоустойчивости конечно произошло, но вы же понимаете, что малейший отказ хранилища вспучит вам все волосы во всех местах разом.
        3. Железо вы брали некое самосборное? В смысле — решения от местных поставщиков? Не смотрели в сторону тех же HP, IBM и иже с ними?
        4. судя по схеме вы виртуализировали только ЦОД, и добавили дополнительные контроллеры домена для каждого их поддоменов на отдельном ESXi. Почему бы их не втиснуть в тот-же кластер?
        5. в 5 сфере уже можно использовать ESXi под HA и DRS или вы просто опечатались в схеме?
        6. Если не секрет — какая лицензия Vsphere используется в итоге? (бандл? версия?)
        • 0
          постараюсь по пунктам:
          1. Оперативные бекапы по прежнему: теневое копирование в windows. Сами образы виртуалок за счет родного бекапшика в 5 всфере.
          2. согласен. но это лучше чем то, что было.
          3. Рассматривали — цена выше на порядок.
          4. Дело в том что я и работаю в этом ЦОДе, все что на схеме обозначено «подразделение» — отдельные юрлица, они вроде и входят в корпоративную сеть, но имеют свое руководство со всеми вытекающими последствиями. Дополнительные контроллеры домена для каждого их поддоменов на отдельном ESXi — исключительно моя инициатива, по поводу добавления в кластер — как раз думаем над этим сейчас.
          5. Это разумеется опечатка. Везде стоят ESXi
          6. VMware vSphere 5 Standart Acceleration Kit
          • 0
            5. Либо мы не поняли друг друга, либо снова опечатка. :)
            • 0
              Мда. Наверное не поняли. Все верно в схеме. Давайте поподробнее свой вопрос?
              • 0
                Да я уже погуглил — разобрался.
                Я не знал что в 5 версии есть только один гипервизор — ESXi, думал что как и в 4-ке, ESXi — для небольших игрищ, а ESX для всех сколько-нибудь серезных фич с использованием vCenter
                • 0
                  В vsphere 4-ой версии esx и esxi равнофункциональны.
                  • 0
                    Ну-у… не совсем
                    • 0
                      Функционально они одинаковые.
                      Минимальные отличия не касаются никаких основных фич.
          • +2
            Томск класный город, привет Политеху!
            1. Посмотрите в сторону продуктов Veeam, у них есть как вариант лицензирования продуктов Essential, как раз по вашему бюджету.
            3. На порядок? т.е вы за железо заплатили суммарно $3000? Для примера собрал аналогичную конфу на IBM:
            2 х x3550m3, 2xX5675, 64GB, 2x SAS HBA, USB VMware.
            IBM DS 3512, 12x2TB NL-SAS
            Вышло в лист-прайсе $30000, т.е. с учетом скидки для парнера и его маржи так и выйдет.
            Заказывали бы Express модели было бы дешевле.
            Есть еще HP, где цены еще дешевле.

            Не понял в вашем конфиги, вы в сервера тоже диски ставили?
            Для VMware локальные диски не нужны, если есть общее хранилище.
            Если общего хранилища нет, можно поставить Vmware Storage Appliance, будет HA, DRS.

            Не обязательно загружаться со стораджа, VMware ESXi прекрасно загружается с USB, никакой разницы, только дешевле.
            Т.е. с учетом этого вам и iSCSI не надо было. Можно было ограничиться стораджем с подключением по SAS.
            Конкретно выше названная модель (кстати OEM LSI) поддерживает в начальной конфигурации 4 порта SAS (2 хоста в HA), с раcширением до 8 портов.
            У HP также есть аналогичная модель.
            6. В вашей конфигурации вам достаточно было VMware Essential Plus Kit, цена в 2 раза ниже, теже возможности.
            7. (От меня) Если вы планируете размешать в будущем много VM c Microsoft Windows Server, подумайте надо покупкой/апгрейдом лицензий до Windows Server Datacenter. Разница в цене в 6 раз против Standart, но стандартном вы покрываете только одну VM, а Datacenter, лицензируется на процессор (сокет), и позволяет неограниченное количество VM.
            8. (От меня) если уже купили VMware Standart, то пользуйтесь по полной! Начиная со стандарт, вы можете бесплатно использовать SUSE Linux Enterprise Server 11. Подробности на сайте VMware.

            Не в обиду, но вы типичный «экономный» клиент, экономит на железе, которое не понятно есть или нет в HCL, а потом ничего не работает.
            Допустим в случае с IBM купили бы сразу сервис-пак, стоит несколько сот долларов, и уже на next-business day у вас были бы сбойные запчасти.
            Думаю и у HP такое тоже есть.

            После регистрации лицензий, вы можете звонить на телефон поддержки VMware, там ответят по-русски, достаточно грамотно.

            P.S. я не сотрудник IBM, HP, VMware, просто работаю с их продуктами.
            • 0
              в случае с IBM купили бы сразу сервис-пак, стоит несколько сот долларов, и уже на next-business day у вас были бы сбойные запчасти.

              Стало интересно: думаете в реалиях Томска next business day — это действительно следующий календарный день? Терзают меня смутные сомнения на этот счёт, зная как они работают, например в Киеве
      • 0
        Технику вы же аукционами покупали, да и софт. Киньте ссылки на zakupki.gov.ru Народу и будет ясно, что именно вы купили.
  • +1
    Скоро-скоро VMware Forum :) интересный пост в впредверии VMware Forum 2012 в Москве!
    IMHO думаю автору стоит поделиться своей sussess-story на данном мероприятии. ;)
  • 0
    по поводу локальных винчестеров на хостах могу сказать, что гипервизор на них может хранить файлы подкачки для вируальных машин, что очевидно выоднее чем хранить их на хранилище
  • 0
    Скажите, а вот VmWare — как Вы ее покупали, да еще с High-Availabilty кластером, если до этого денег только на винчестеры хватало? И, если у Вас уже техника сыпалась, не боязно взгромоздить на нее еще и WmWare?
    • 0
      В статье же написано: на винчестеры — это затраты на содержание, а VmWare была куплена под целевую программу (разовый проект, может быть и финансировался областью или федерацией, а не городом).
      • 0
        Спасибо, что взяли на себя труд ответить вместо автора, но статью я читал и сам.

        Мне, в частности, был интересно вот что: ПО сначала ставилось, настраивалось, а потом покупалось (что некрасиво, но логично с точки зрения потестировать полгодика до оплаты немалого счета) — тогда имеем подход «попросить под целевую программу финансирование на оплату оттестированного решения», либо ПО все же сначала покупалось (выбираясь по описанию, без теста) — тогда, боюсь, могло все получиться не самым оптимальным образом. Вы, раз уж взялись, не проясните для меня эту ситуацию вместо автора?
  • 0
    Один вопрос.
    Почему все-таки была выбрана vSphere, а не Hyper-V?
    Может, Hyper-V получилось бы дешевле?
    И вообще, какие затраты в целом на лицензии?
    • 0
      дешевле — в госорганизациях часто является недостатком )
  • 0
    >>а грузится с хранилища оно так и не умеет – если честно, я не понимаю, почему? Я может субъективно смотрю на вещи, но когда вы покупаете хранилище, которое как правило дороже любого сервера и у вас разумеется есть для неё поддержка и запасные винчестеры, зачем использовать локальные винчестеры на хостах? Для чего? Непонятно.

    Потому, что гипервизор — вещь одноразовая. Т.е. если сдохнет железка с гипервизором — его настройки новой железке будут либо не нужны либо вредны. Плюс сторадж — вещь дорогая, использовать его для загрузки маленьких гипервизоров — в большинстве случаев просто дорого, т.к. нужно подключение к сторажду (iSCSI, SAS, FC, обеспечить загрузку с него), обслуживание самого стораджа (нарезать LUNы, задокументировать) ну и место на сторадже (а его никогда не бывает много). При этом установка на локальный носитель все эти проблемы решает, а стоимость — минимальна, можно как на один хард (рейд не нужен, часто бывает один хард уже в комплекте с сервером) так и на флешку (штатная возможность и у ESXi и Hyper-V Server, в современных серверах есть внутренний USB порт для таких вещей).

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.