ua-hosting.company
Компания
327,41
рейтинг
24 мая 2013 в 17:30

Разное → Преимущества размещения в Нидерландах, Дата Центр EvoSwitch recovery mode

В этой публикации я хотел бы немного рассказать о преимуществах размещения в Нидерландах, нидерландском Дата Центре EvoSwitch, в котором размещаемся, о плюсах и минусах в работе с этим ЦОД (центром обработки данных).




Почему Нидерланды?


Нидерланды – наиболее лояльная в плане законодательства страна среди остальных стран Европы. А удобное географическое положение дает возможность построения хорошей связности, как с Америкой, так и с Европой одновременно, в том числе с Украиной и Россией – основными потребителями трафика русскоязычного сегмента Интернет. А еще в Нидерландах можно размещать легальные сайты для взрослых, что невозможно во многих других странах из-за несовершенного законодательства или возможно с ограничениями. Например, в Германии, почти на всей территории, при наличии заглушки и платного доступа – разрешено, а в открытом доступе – нет. Почему-то даже там политики не думают о том, что несовершеннолетние при необходимости в состоянии воспользоваться картой родителей или зайти на сайт, размещенный в другом регионе, где отсутствуют ограничения.

Адалт составляет огромную долю всего интернет-трафика – в среднем по миру свыше 30%, потому препятствовать его размещению глупо и не дальновидно, таким странам приходится дорого платить за внешний трафик, ведь когда нельзя – спрос еще выше. Подтверждением этого может быть Россия, где доля взрослого зарубежного трафика оценивается в диапазоне до 54%. В результате развитие внутренних сетей таких стран оставляет желать лучшего, так как местные Дата Центры теряют до половины рынка. Но как говорили раньше – в России и Украине секса нет, именно так видимо полагают законодатели, вводя подобные запреты. Только теперь это понятие актуально для сети Интернет, за что даже предусмотрена криминальная ответственность, если не дай Бог Вы «клубничку» разместили в Украине или России (в РФ все-таки ситуация с этим лучше, но также официально запрещено и наказуемо).

Запрет сайтов для взрослых — увы, не единственная проблема. К сожалению, в Украине и России в последнее время складывается печальная ситуация, как в плане связности между странами (очень мало качественных каналов, Россия и Украина не развивают связность друг с другом, видимо, нет заинтересованности в обмене трафиком), так и в законодательном плане. Серверы могут быть изъяты без решения суда в качестве «доказательства» по различным надуманным мотивам в любой момент, а просмотр потокового видео невозможно сделать одинаково качественным для обеих стран одновременно, если только не потратится основательно на построение нормальных пирингов. На это не способен, по-видимому, даже Вконтакте. Просмотр видео с Вконтакте порой изрядно тупит в Украине. Плохая связность и потери на каналах, которые присутствуют всегда из-за перегруженности сетей, приводят к тому, что скорость на поток между Россией и Украиной порой достигает всего лишь 2 Мбит / с, иногда и ниже, что порой недостаточно для просмотра потокового видео и уж тем более видео HD-качества.

Очень часто между Украиной и Россией трафик ходит по очень сложному маршруту, например через Будапешт, Франкфурт, Лондон:



Но печаль не только в этом, а и во внутренних сетях стран. По аналогичной причине порой сайт из зарубежа будет пинговаться лучше, чем сайт, находящийся в Дата Центре столицы, если проверять из регионов. В том же Укртелекоме, который является Интернет-монополистом в Украине, такое наблюдается часто. Пользователь из региона может получать доступ к сайту, размещенному в Киеве, через Германию или даже через несколько европейских стран. В России в целом ситуация не лучше, а порой даже хуже. По этой причине, гарантированный гигабит в Интернет, который будет иметь более-менее приемлемую связность, как с российскими, так и с украинскими пользователями одновременно, будет стоить значительно больших денег, нежели подобный канал в Нидерландах.

Возникает логичный вопрос, а нужны ли эти все проблемы с размещением серверов в Украине и России, да еще и за большие деньги? На мой взгляд – нет. Куда проще будет разместить серверы в надежном Дата Центре и адекватной стране и обеспечить отличную связность оттуда.

Дата Центр «EvoSwitch»


Расположенный в Хаарлеме, 19 км на запад от центра Амстердама, основан в 2006-м году и введен в эксплуатацию в 2007-м с планом расширения до 5 залов и 2-х коммутационных комнат. Текущая занимаемая площадь свыше 5000 кв. м с возможностью роста до 10 000 кв. м, а в долгосрочной перспективе – до 40 000 кв. м. Благодаря удачному расположению в районе с небольшими потребителями электроэнергии EvoSwitch имеет возможность расширить потребление до 60 МВатт мощности, в данный момент используется свыше 30 МВатт.



EvoSwitch использует на 100% «зеленую» энергию, причем максимально эффективно, коэффициент эффективности энергопотребления — около 1,2. Это первый Дата Центр в Нидерландах, в результате деятельности которого отсутствуют выбросы углекислого газа в атмосферу, почти отсутствуют. Единственные источники – автомобили сотрудников, выбросы которых Дата Центр компенсирует взносами в экологический фонд.



Охлаждение спроектировано по принципу горячих и холодных коридоров, применяется фальшпол:



В каждом зале серверы размещаются в изолированных модулях с адиабатическим охлаждением, тепло из модулей выбрасывается в зал, а из зала отводится промышленными кондиционерами:



Вместительность одного модуля – 32 серверных шкафа, в каждом из шкафов допускается потребление оборудованием до 25 кВт мощности.



Кроме того Дата Центр EvoSwitch является обладателем сертификатов безопасности ISO27001 и 9001, PCI DSS (стандарт безопасности данных индустрии платёжных карт) и SAS-70, что подтверждает высокую надежность Дата Центра и позволяет размещаться даже банкам.

Связность


Дата Центр EvoSwitch имеет отличную связность, как с Россией, так и с Украиной, она, как уже указывалась выше, порой лучше, чем связность между различными регионами России и Украины внутри страны. Для подтверждения своих слов приведу несколько трасс в Россию (Москва и Питер):

[root@evoswitch.ua-hosting ~]# tracert mail.ru
traceroute to mail.ru (94.100.191.241), 30 hops max, 40 byte packets
1 hosted.by.leaseweb.com (95.211.156.254) 0.665 ms 0.663 ms 0.661 ms
2 xe4-0-0.hvc1.evo.leaseweb.net (82.192.95.209) 0.253 ms 0.266 ms 0.267 ms
3 xe1-3-0.jun.tc2.leaseweb.net (62.212.80.121) 0.918 ms 0.930 ms 0.932 ms
4 ae4-30.RT.TC2.AMS.NL.retn.net (87.245.246.17) 0.932 ms 0.934 ms 0.935 ms
5 ae0-1.RT.M9P.MSK.RU.retn.net (87.245.233.2) 44.981 ms 44.993 ms 44.994 ms
6 GW-NetBridge.retn.net (87.245.229.46) 52.378 ms 52.101 ms 52.095 ms
7 ae37.vlan905.dl4.m100.net.mail.ru (94.100.183.53) 52.093 ms 52.086 ms 52.081 ms
8 mail.ru (94.100.191.241) 41.870 ms 42.195 ms 42.181 ms
[root@evoswitch.ua-hosting ~]#

[root@evoswitch.ua-hosting ~]# tracert selectel.ru
traceroute to selectel.ru (188.93.16.26), 30 hops max, 40 byte packets
1 hosted.by.leaseweb.com (95.211.156.254) 0.494 ms 0.775 ms 0.793 ms
2 xe2-2-2.hvc2.leaseweb.net (82.192.95.238) 0.233 ms 0.239 ms 0.241 ms
3 xe1-3-2.jun.tc2.leaseweb.net (62.212.80.93) 0.767 ms 0.771 ms 0.772 ms
4 ae4-30.RT.TC2.AMS.NL.retn.net (87.245.246.17) 0.782 ms 0.996 ms 0.999 ms
5 ae5-6.RT.KM.SPB.RU.retn.net (87.245.233.133) 34.562 ms 34.573 ms 34.575 ms
6 GW-Selectel.retn.net (87.245.252.86) 41.945 ms 41.735 ms 41.728 ms
7 188.93.16.26 (188.93.16.26) 42.686 ms 42.469 ms 42.448 ms
[root@evoswitch.ua-hosting ~]#

Ну, а теперь покажу связность с моим домашним провайдером в Украине:

[root@evoswitch.ua-hosting ~]# tracert o3.ua
traceroute to o3.ua (94.76.107.4), 30 hops max, 40 byte packets
1 hosted.by.leaseweb.com (95.211.156.254) 0.578 ms 0.569 ms 0.569 ms
2 xe2-2-2.hvc2.leaseweb.net (82.192.95.238) 0.253 ms 0.259 ms 0.260 ms
3 62.212.80.140 (62.212.80.140) 0.894 ms 0.895 ms 0.894 ms
4 ams-ix.vlan425-br01-fft.topnet.ua (195.69.144.218) 7.186 ms 7.192 ms 7.192 ms
5 freenet-gw2-w.kiev.top.net.ua (77.88.212.150) 35.204 ms 35.402 ms 35.404 ms
6 94.76.105.6.freenet.com.ua (94.76.105.6) 39.237 ms 39.285 ms 39.279 ms
7 94.76.104.22.freenet.com.ua (94.76.104.22) 38.184 ms 38.304 ms 38.289 ms
8 noc.freenet.com.ua (94.76.107.4) 39.080 ms 39.200 ms 39.190 ms
[root@evoswitch.ua-hosting ~]#

Столь замечательная связность позволяет мне работать с моими серверами в Нидерландах на скорости выше, чем с серверами расположенными в Киеве в Дата Центре «Utel» Укртелекома. Печально, но факт, связность из Киева с Дата Центром в Киеве у меня хуже, нежели связность с нидерландским ЦОД… Таковы реалии. А все потому, что в ЦОД EvoSwitch не 2-3 аплинка, как зачастую бывает на украинских и русских площадках, а несколько десятков. Так же присутствуют различные пиринги и включения в основные точки обмена трафиком. Общее количество аплинков и пирингов – более 30, а общая связность превышает 3 Тбит / с. Пожалуй, это Дата Центр с наилучшей связностью в мире.



Внешняя маршрутизация осуществляется через 3 разных ввода в здании. Оптические кабели надежно проложены к оптическому кроссу в коммутационной комнате. Все кабели анонимны и контролируются EvoSwitch, сведения о кабельной инфраструктуре постоянно обновляются в соответствующей базе данных. В окрестностях Дата Центра присутствуют волокна следующих операторов: BT, Colt, Ziggo, Enertel, Eurofiber, FiberRing, Global Crossing, KPN, MCI/Verizon, Priority, Tele2, UPC. В итоге используются такие основные аплинки, как BT, Cogent, Colt, Deutsche Telekom, FiberRing, Eurofiber, Global Crossing, Interoute, KPN, Relined, Tele2, Telecom Italia, Teleglobe/VSNL, TeliaSonera.



В коммутационной комнате Дата Центра можно увидеть «спагетти» из сотен оптических кабелей желтого цвета (пропускной способностью 10 Гбит / с), и значительно меньше оранжевых (пропускной способностью 1 Гбит / с).

Коммутационная комната:



Так выглядит ядро Дата Центра, стоимость которого превышает 1 миллион евро, причем это ядро дублировано:



А вот и точки обмена, в которые есть включения:

MSK-IX — 10 Gbit / s
FRANCEIX — 10 Gbit / s
AMSIX — 140 Gbit / s
DE-CIX — 60 Gbit / s
LINX — 40 Gbit / s
BNIX — 10 Gbit / s
EXPANIX — 10 Gbit / s
NLIX — 10 Gbit / s
DIX — 1 Gbit / s
NIX1 — 1 Gbit / s
NETNOD — 10 Gbit / s
DE-CIX — 60 Gbit / s
SWISSIX- 10 Gbit / s
MIX — 1 Gbit / s
NIX — 1 Gbit / s
VIX — 1 Gbit / s
SIX — 1 Gbit / s
BIX — 1 Gbit / s
INTERLAN — 1 Gbit / s

Стандартизация и система самообслуживания


В текущий момент скорость роста клиентской базы Дата Центра довольно высока, в частности благодаря партнерам, которые заказывают серверы для своих клиентов, в Дата Центре устанавливается свыше сотни новых серверов ежедневно. Именно по этой причине действуют определенные правила размещения и выдачи серверов.

Так, есть стандартные шкафы (с так называемыми «автоматическими» предустановленными серверами, которые выдаются автоматически), спроектированные под предоставление каждому серверу гарантированных 100 Мбит / с Flat Fee (без ограничения трафика), гарантированного 1 Гбит / с, а также шкафы для серверов с ограниченным потреблением трафика.

Помимо этого применяется стандартизация по конфигурации. Один шкаф заполняется серверами одного типа. Единственное, что может в них различаться – количество дисков и оперативной памяти.

Так выглядит новая партия серверов, ожидающая установки в шкаф, 40 серверов HP DL120:



Уже установленные серверы:



Каждый сервер подключается не только к сети Интернет, но и к системе, позволяющей перезагрузить сервер по питанию, отключить порт на свитче и даже переустановить операционную систему сервера нажатием одной кнопки.



В такой стандартизации есть не только плюсы, но и минусы. Плюс в том, что серверы автоматические и система их может выдать порой через несколько минут после проведения оплаты, настроенным согласно Вашим пожеланиям. Минус состоит в гибкости решений по конфигурации и первоначальной настройки.



Так, если Вам необходим будет сервер с разными типами дисков в одном сервере (например SATA и SSD), не смотря на то, что конфигурация сервера без проблем позволяет их одновременное использование — Вас зачастую отправят заказывать Custom Built (не автоматические серверы), которые стоят значительно дороже автоматических (порой в 2 раза) за счет того, что их установка проводится вручную и размещаются они в шкафах в которых можно подключить канал любой нужной пропускной способности и увеличить пропускную способность в любой момент до нужного Вам уровня. Иногда конечно ЦОД идет на встречу и соглашается добавить диски после установки (если проблема только в дисках), при условии оплаты времени инженера, пол часа которого стоят 50 евро (минимум к оплате пол часа).



В стандартных же шкафах, где серверы подключены к стомегабитному, гигабитному или каналу с ограничением по трафику изменить тарификацию трафика или увеличить пропускную способность не получится. Так же как и не получится предоставить дополнительный порт в свитче для постоянного IPMI, по той причине, что, как правило, они не резервированы под эту услугу.

Есть еще один минус — отсутствие возможности переустановить сервер автоматически с RAID. Для получения нужного уровня RAID Вам зачастую придется опять обращаться к инженеру (если только аппаратный RAID не был предварительно сконфигурирован перед установкой сервера) или заказывать временное KVM-устройство на платной основе, которое обойдется в 50 евро за сутки (минимальный период сутки) для проведения установки вручную самостоятельно.

Тем не менее IPMI и инженер в большинстве случаев оказывается не нужным, так как вне зависимости от того какой у Вас сервер, автоматический или нет, Вы можете при помощи системы управления серверами в центре самообслуживания (Self Service Center) выполнить не только переустановку, перезагрузку по питанию, но и загрузить сервер в режим восстановления.

Режим восстановления (Rescue Mode) предоставляет Вам возможность загрузить Small Linux или BSD среду в оперативную память сервера из сети ЦОД посредством нажатия одной кнопки. В режиме восстановления можно получить доступ к файлам на жестких дисках сервера, произвести ремонт загрузчика и множество других операций. При должных навыках администратора Вы даже сможете переустановить операционную систему с применением необходимого Вам программного уровня RAID, для конфигурирования аппаратного все же придется обратится к инженеру. Таким образом операции требующие физического вмешательства крайне редки.

Особенности режима восстановления. После нажатия кнопки загрузки в режим восстановления пароль к запрашиваемой среде отобразится в течении 10 минут, если этого не произойдет нужно перезагрузить сервер кнопкой через панель и подождать еще 5-10 минут. В случае, если режим восстановления загрузить не удается — обращайтесь к инженеру. Для выхода из режима восстановления достаточно просто перезагрузить сервер.

В системе самообслуживания есть изъян — в случае, если недоброжелатель получит доступ к Вашему SSC, он сможет переустановить все серверы нажатием соответствующей кнопки, что приведет к потере данных и особенно будет страшно, если серверов в аккаунте несколько. Решением могла бы стать возможность назначить пароль на функцию переустановки, как для отдельного взятого сервера, так и для группы серверов. О чем программисты SSC уведомлены нами и надеюсь в скором времени это будет реализовано.

SLA (service-level agreement) и особенности технической поддержки


SLA в EvoSwitch возможно и marketing bullshit, но жизненная необходимость. И вот почему. ЦОД настолько большой, а сотрудники порой настолько медлительны, что если не покупать гарантированный уровень поддержки, то к Вашему серверу могут подойти часа через 3, а то и вовсе можно ждать пол дня, прецеденты долгого ожидания были, без платного SLA там делать нечего. Но порой в задержке может быть виноват и сам абонент, если не точно указал тему своего запроса. В Дата Центре существует несколько линий поддержки, одна линия перебирает запросы и назначает им приоритет, другая — занимается решением. Также можно попытаться самому изначально определить приоритет, выбрав соответствующую тему. Например, на тему Service Unavailable реакция более стремительна, нежели на остальные, что логично. Но не стоит этим злоупотреблять, так как первая линия поддержки все-таки проверяет приоритетность этого запроса и можно угодить в негласный «черный список» и затем очень долго ждать ответов уже на критичные запросы.

Рассмотрим теперь уровни SLA:

— Best Effort (инженеры ЦОД прикладывают все усилия, чтоб решить вопрос как можно скорее, ага, просто «бегут» к серверам, не сомневайтесь), это бесплатный уровень SLA, который ничего не гарантирует и решение вопросов может занимать очень много времени;
— SLA Bronze (24x7xNBD);
— SLA Silver (24x7x12);
— SLA Gold (24x7x4);
— SLA Platinum (24x7x1).

Платные уровни, как видим, гарантируют то, что Вам ответит инженер в срок 24 часа, 12 часов, 4 и 1 час соответственно. Причем за то, чтоб Вам гарантировали получение ОТВЕТА (заметьте, ответа, а не решение проблемы, именно по этой причине многие считают SLA в европейских ЦОД маркетинговой фигней) в течении суток, Вы должны оплатить свыше 50 евро / месяц за сервер дополнительно, а в течении часа — 180 евро, что порой превосходит стоимость аренды сервера в 3 раза и дешевле уж построить кластер. Оплачивать такие деньги наверняка многие не готовы и клиентов заметно поубавилось бы, если б не было иной схемы работы. Получить платное SLA за бесплатно возможно, если работать через партнеров, а не напрямую. Но об этой схеме позднее.

Высокая стоимость SLA при работе напрямую для частных абонентов с небольшим количеством серверов — жестокие реалии этого Дата Центра premium-класса. Почему не возможно организовать качественный саппорт без доплат — мне до сих пор не понятно, видимо высокий уровень зар. плат (в сравнении с российскими и украинскими) понижает эффективность работы, люди не привыкли напрягаться, особенно обслуживая такую высокотехнологичную площадку, как EvoSwitch. Это мое мнение основывается на опыте работы с украинскими площадками, которые зачастую совсем не технологичны, а больше напоминают склад. Тем не менее на 10 000 юнитов в ЦОД в Украине может сидеть 2 сотрудника тех. поддержки (с окладом 400 евро / месяц каждый, сравните со стоимостью SLA в Нидерландах!) и при этом без всяких платных SLA в течении 15 минут успевать предоставить KVM к серверу всем нуждающимся абонентам, заменить вышедший из строя диск и при этом, как сказал наш админ — «еще успевают курить, пить чаи и в чатах сидеть»… Очень странно, что это невозможно в Нидерландах с таким огромным количеством сотрудников и намного более высоким уровнем зар. плат. Хотя не знаю, возможно выполняется только указанная админом часть? По какой причине поддержка не работает эффективно без доплат (хотя и с доплатами порой тоже)? Быть может это связано с тем, что в EvoSwitch для большинства серверов отсутствует возможность предоставления бесплатного KVM и инженеры сами вынуждены решать вопрос и восстанавливать доступность сервера вместо клиента, если у клиента не получается загрузить Rescue. Возможно… Хотя такие случаи не очень часты, видимо тут присутствуют еще проблема нехватки кадров и низкой эффективности их работы. Потому без платного SLA оперативность будет далеко не всегда.

Тем не менее руководство Дата Центра EvoSwitch воспринимает критику и уже есть положительные моменты в улучшении оперативности обслуживания.

Работа через партнеров, почему это выгодно всем


В Дата Центре развита программа партнерства с крупными хостинг-провайдерами, что позволяет уменьшить нагрузку на сотрудников, увеличить продажи и качество обслуживания. Провайдеры-партнеры получают услуги ЦОД со скидкой, а так же в зависимости от объема, определенный уровень SLA (Remote Hands) для всех своих серверов бесплатно, различные другие виды лояльности. Предоставление SLA без дополнительных оплат для своих партнеров основано прежде всего на том, что до 90% запросов клиентов провайдер может разрешить самостоятельно без обращения к инженерам в ЦОД. В случае, когда клиенты работают с Дата Центром напрямую, эти 90% ложатся на плечи сотрудников тех. отдела EvoSwitch, а как известно — зар. платы там не малые. Для ЦОД намного выгоднее предоставить SLA партнеру бесплатно (с разумным лимитом бесплатного времени инженеров в месяц), и с помощью его сотрудников бесплатно решать до 90% проблем, чем нанимать дополнительный персонал. Схема интересная и эффективная для всех сторон, в том числе и для клиента, который в итоге получает SLA вплоть до максимального уровня без огромных платежей. Для того, чтоб это понять достаточно взглянуть на статистику: на каждую сотню серверов, обслуживающуюся у нас, мы создали не более 100 запросов в Дата Центр за год. При этом к нам запросов поступает от 500 в год на сотню серверов.

Теперь приведем полный список причин, по которым клиенту выгоднее работать через партнера, а не напрямую:

— поддержка на родном языке;
— SLA максимального уровня бесплатно;
— гибкость в настройке и установке серверов, возможность заказа индивидуального решения по более низкой цене;
— более оперативное предоставление сервера после заказа, порой моментальное;
— предоставление в качестве бонуса панели управления или лицензии Windows без оплаты;
— оперативность решения проблем, возможность заказа сопровождения по минимальным ценам;
— больше времени для реакции на жалобу;
— более низкая цена на сервер, чем при покупке напрямую, разнообразные способы оплаты.

Ну и самое главное, провайдеры участники партнерской программы являются крупными клиентами ЦОД, к их запросам и потребностям более внимательное отношение, чем к клиенту с одним или даже несколькими десятками серверов. Работа через партнера будет выгодной даже в случае, когда Вам необходимо разместить большую инфраструктуру, сотни серверов. Так как совместно с партнером Вы получите большую скидку, чем можете получить заказывая решение по отдельности, кроме этого клиент избавляет себя от лишних административных и технических проблем, в решении которых у провайдера-партнера больше опыта.

Политика реакции на жалобы, сроки реакции


В Дата Центре существует отдельная от отдела продаж и тех. поддержки команда специалистов, работающая исключительно с жалобами. Поскольку ЦОД большой — жалоб поступает в сутки огромное количество. Сотрудники абузного отдела анализируют их и если по их мнению жалоба оправдана — передают клиенту, назначая жалобе приоритет. Необоснованными жалобами клиента не беспокоят! В зависимости от назначенного приоритета у пользователя есть время для реакции на жалобу от 1 до 72 часов. В случае, если пользователь не реагирует на жалобу в течении отведенного срока — ip-адрес сервера, на который поступила жалоба, временно блокируется. Поэтому крайне важно отслеживать жалобы.

Наибольшую опасность остаться с неработающим сервером представляют собой жалобы категории URGENT, где срок реакции установлен 1 час. Под реакцией для столь срочной жалобы подразумевается то, что пользователь должен дать ответ в течении этого времени, что начал решать проблему. Именно поэтому лучше не заказывать серверы в ЦОД напрямую, так как нормальный человек, у которого нет своего технического отдела — не способен зачастую отреагировать в течении часа. Правда такие жалобы весьма редки. К ним относят рассылку спама большой интенсивности, детское порно и всякие извращения (это запрещено даже в лояльных Нидерландах, что правильно), фишинговые сайты (банковских систем и т.п.). При повторении жалобы на интенсивный спам и отсутствии реакции в течении часа ай пи адрес сервера может быть заблокирован с разблокировкой только после переустановки сервера.

Тем не менее для 99% жалоб дается адекватный срок для реакции на проблему — 24, 48 или даже 72 часа.

Безопасность и надежность


EvoSwitch является обладателем сертификатов безопасности ISO27001 и 9001, PCI DSS (стандарт безопасности данных индустрии платёжных карт) и SAS-70, что подтверждает высокую надежность Дата Центра и позволяет размещаться даже банкам. Физически в сам ЦОД осуществляется пропуск исключительно по пропускам, в том числе биометрическим:



В некоторые зоны Дата Центра, в которых размещаются серверы банков, доступ ограничен даже для сотрудников ЦОД:



Не смотря на то, что ЦОД потребляет свыше 30 МВатт мощности из множества разных источников, было установлено 16 х 1540 кВА парных дизельных электростанций с резервированием по схеме N+1 (с возможностью расширения). В Дата Центре постоянно хранится запас топлива достаточного на 72 часа их функционирования, а также заключен контракт с поставщиком топлива, который согласно подписанного SLA обязуется выполнить поставку дополнительного топлива в период до 4-х часов после запроса.



Помимо этого присутствует система источников бесперебойного питания 1 х 1600 кВА + 3 х 2400 кВА статических ИБП с возможностью расширения.

Система очень раннего обнаружения дыма VESDA (Very Early Smoke Detection Apparatus) моментально уведомляет систему пожаротушения на основе инертного газа аргона:



Стены Дата Центра огнеупорны и могут выдержать воздействие высоких температур на протяжении не менее 180 минут. Помимо этого применяется система обнаружения пожара на основе оптических детекторов, фиксирующих изменения в воздушных потоках, а так же тепловых детекторов.



На территории Дата Центра постоянно присутствует охрана и реализована обширная система видеонаблюдения. Камеры установлены в каждом зале и практически в каждом изолированном модуле. Вокруг установлено несколько барьеров, а первый этаж расположен на уровне 1 метра над землей.

Выводы


В целом EvoSwitch является одним из самых надежных в мире центров обработки данных premium-класса, обеспечивает хорошую связность со всем миром, в особенности прямой канал в Россию и Украину, при этом стоимость услуг довольно невысока, а лояльность законодательства Нидерландов позволит Вам не переживать за свой бизнес. С ЦОД лучше не работать напрямую, а заказывать услуги через партнеров, что поможет избежать многих административных и технических проблем, языковых барьеров, а также сэкономить средства.

За все время работы (более года) проблем с каналами практически не было. Временами, очень редко, наблюдалась непродолжительная недоступность части серверов (как правило из одного шкафа) по причине атаки на клиента из этого шкафа либо проблемы со свитчем и один раз из-за проблем с маршрутизатором. К слову, ЦОД заменил маршрутизатор за менее чем 4 часа! Когда же однажды возникла проблема со скоростью в Россию из-за аварии на крупном русском магистральном провайдере — ЦОД по запросу заблокировал проблеммный PNI и отправил трафик по другому маршруту, причем сделано это было в течении получаса. Выводы делайте сами.



Видео о Дата Центре доступно на их официальном сайте: www.evoswitch.com/en/news-and-media/video
Автор: @HostingManager
ua-hosting.company
рейтинг 327,41
Компания прекратила активность на сайте

Комментарии (71)

  • +4
    Улыбнуло вот это:
    >Так выглядит новая партия серверов, ожидающая установки в шкаф, 40 серверов HP DL120 G5:
    откуда же они их берут… если они сняты с производства давненько… заставлят задуматься
    • +2
      Фотография старая, на фотографии серверы новые :) Такое уточнение устроит?
  • 0
    Все кабели анонимны и контролируются EvoSwitch, сведения о кабельной инфраструктуре постоянно обновляются в соответствующей базе данных.

    Это чтобы враг не знал, какой кабель резать?
    • +1
      Сделать крос без маркировки и документации — любимое развлечение!
  • +7
    В коммутационной комнате Дата Центра можно увидеть «спагетти» из сотен оптических кабелей желтого цвета (пропускной способностью 10 Гбит / с), и значительно меньше оранжевых (пропускной способностью 1 Гбит / с).

    Чо?
    Обычно рыжие патч-корды — многомода, желтые — одномода. Шанс увидеть 10G по многомоде выше. Стоит копейки.
    Вы ТОЧНО уверены в своих словах?
    либо проблемы со свитчем и один раз из-за проблем с маршрутизатором. К слову, ЦОД заменил маршрутизатор за менее чем 4 часа!

    Так и запишем — «резервирования нет».
    • +1
      HostingManager
      Так выглядит ядро Дата Центра, стоимость которого превышает 1 миллион евро

      А что за железка?
    • 0
      На счет железки — там Juniper'ы.

      По предидущему вопросу. Я уверен в том, что видел. Дальтонизма вроде нет :) Резервирование есть, проблема наблюдалась только в некоторых подсетях, в виде небольших потерь. Когда маршрутизатор заменили проблема полностью исчезла. Почему так было при наличии резервирования — это уже с техническими специалистами лучше обсудить. Он у селектела при наличии резервирований облако упало, но это же не означает, что селектел плохой и т.д. Запишите лучше какой другой ЦОД заменит маршрутизатор за 4 часа (проблема началась в 3 ночи) до утра.
      • +6
        Я уверен в том, что видел.

        А я-то думал, что многомоду обычно используют на малых расстояниях, одномоду (тем более — с двумя длинами волн на одно волокно) — на больших, первое дешевле, второе дороже, и к скоростям все указанное в начале этого предложения не имеет вообще никакого отношения :)
        Почему так было при наличии резервирования — это уже с техническими специалистами лучше обсудить.

        Ну так напишите статью. Было бы интересно почитать.
        Запишите лучше какой другой ЦОД заменит маршрутизатор за 4 часа

        4 часа — безумный срок вне зависимости от времени дня и ночи. От аварии до замены в случае деградации сервиса должны пройти максимум десятки минут. Вы что, дожидались RMA? Нет боевой ночной смены?
        Потери, говорите? То есть даже в ночное время линки на оставшейся железке были перегружены? Ай-ай-ай.

        Помните, как Cloudflare при полном отказе всего интернет-периметра (все железки разом ушли в циклический ребут) на десятках площадок умудрился за полчаса поднять часть сервиса, а за час — весь сервис?

        И все-таки: что за железка с 8х10G на слот ценой в лям?
        • 0
          Ценой в лям все ядро, а не одна железка. Там их несколько. На фото все не влезло. Общий объем маршрутизируемого трафика около 3 Тбит / с.

          На счет аварии — постараюсь найти, что нам отписывали в тикете инженеры ЦОД и Вам сообщу. Тогда затронута была незначительная часть серверов и потери были не большими (периодами, не 4 часа подряд, а иногда проблема появлялась на 10-20 минут несколько раз за 4 часа), многие даже не заметили их. Кроме того, затронута была часть сети Volume, если нужно больше резервирования — можно заказывать сеть Premium, но и стоит других денег это.
          • +3
            Ценой в лям все ядро, а не одна железка.

            Я прочитал «ядро Дата Центра, стоимость которого превышает 1 миллион евро, причем это ядро дублировано» как «лям помножить на два».
            На счет железки — там Juniper'ы.

            Информативно. А поподробнее? Раз уж вы так пиарите сетевую часть площадки, можно было бы в отдельном посте на ней сконцентрироваться…
            и потери были не большими (периодами, не 4 часа подряд, а иногда проблема появлялась на 10-20 минут несколько раз за 4 часа)

            Странно как-то… Ночью, когда трафик в разы меньше дневного…
            затронута была часть сети Volume

            Что это? SAN что ли? FCoE? И это задели? :)
            можно заказывать сеть Premium, но и стоит других денег это.

            Лишний порт на отдельной железке. Всё. Учитывая, что реальная стоимость даже 10G порта начинается от смешных $500…

            У меня просто как-то в голове не укладывают понятия «ЦОД» и «нет полного резервирования сети» в одном предложении. Вроде бы очевидно, что иначе просто не бывает.
        • –4
          Ваши сведения устарели, уже везде одномод, что гигабит, что 10.
          Я покупал цветные кабеля для разных линков удобно потом разбираться что и куда сразу видно без схемы(схема тоже есть).
          Про 4 часа расскажите хоть одному датацентру в России, они будут долго смеяться.
          Логичный вывод что был не перегружен свич, а в нем какие то были проблемы, так как если бы свич был перегружен, замена бы не помогла.
          Помню что за час не поднял сказать честно, висит у меня там пару интернет магазинов, хотя может вы не про то падение.

          • +4
            уже везде одномод, что гигабит, что 10.

            Ну-ка с этого момента поподробнее… Кто использует одномод, тем более с двухцветными SFP, в пределах одной площадки? D&G — Dорого и Gлупо :)
            Серьезно — никто и никогда так не делает. Разве что кто-то сильно промахнулся при первоначальном расчете портовой емкости.
            Про 4 часа расскажите хоть одному датацентру в России

            Вам кажется очень быстрым поход в комнату-склад, поднятие свитча из ЗИП, перетаскивание его в машинный зал и накатывание идентичного конфига за 4 часа? Тогда я в недоумении. Эта процедура займет минут 10, включая перекуры.
            Впрочем, в моем случае ЦОДы сторонних компаний используются лишь как место, обеспечивающее размещение железа, его энергоснабжение, охлаждение и физбезопасность. Все каналы связи и всё сетевое оборудование всегда свои. Что не отменяет простого факта: за 4 часа я мог бы получить звонок наших дежурных, вызвать такси, приехать на склад, схватить новый свитч, с ним подъехать в ЦОД и махнуть железку. Без особой спешки.
            Логичный вывод что был не перегружен свич, а в нем какие то были проблемы

            Один свитч помер. На резервном проблемы (судя по симптомам — давно). Зашибись у вас ЦОДы…
            • 0
              Тогда уж дешевле медь, про неё у меня есть статьи в бложике, а так ни разу у магистралов не встречал многомода. И стоимость оборудования многомод одномод мне кажется уже близка к одной цене.
              Мне кажется вы пропустили момент диагностика как минимум.
              Расскажите мне хоть про один датацентр в раше, который быстро решает такие проблемы? Вот прям в течении 15 минут судя по вашему описанию. Обычные хостеры не особо на виду, а вот облачные мы видим как борются быстро с такой проблемой, у обычных зачастую бывают ситуации и похуже, разве что падает не все сразу как в мелких русских облаках.
              Один свич не помер, на нем появились проблемы.
              • +1
                Тогда уж дешевле медь

                Можно медь. Правда, она только совсем недавно стала lossless на 10G, и не на всяком железе. Т.е. не везде по ней FCoE пустят.
                ни разу у магистралов не встречал многомода.

                Причем тут магистралы, когда мы говорим про внутреннюю коммутацию ЦОДа?
                Мне кажется вы пропустили момент диагностика как минимум.

                Добавляем 5 минут на локализацию проблемы. По опыту говорю. Если свитч начало колбасить, то это видно сразу, а дальше дело техники.
                Расскажите мне хоть про один датацентр в раше, который быстро решает такие проблемы?

                Мои датацентры. Впрочем, повторюсь — от владельцев площадки требуется только питание, не более того. Свои руки всяко надежнее.
                Один свич не помер, на нем появились проблемы.

                Как человек, много лет работающий в том числе и со свитчами и навидавшийся всякого, скажу: примерно любую проблему можно локализовать за 5 минут. У меня всякое бывало. SFPшка на VSL линке начинала массово бить фреймы; активный суп сходил с ума, но фейловера не происходило; модули сыпали ошибками на ровном месте. Все эти сценарии куда хуже, чем «обесточили свитч», они вызывали реальный даунтайм. И устранялись эти аварии в считаные минуты. Подход простой: проблемный узел изолируется от сети, а дальше неспеша изучается на предмет благонадежности. Если надо — меняется.
                Потому я бы сказал, что 4 часа на замену свитча (считая, что до его замены влияние на сервис остается) — признак разгильдяйства. И мне плевать, если у всех так.
                • –2
                  Потому что это сетевая инфраструктура и там никто Fc не гоняет, потому что это аплинки.
                  Пруф на ваш датацентр, потестирую его, вот оно чудо в раше оказывается где и зря я перевел все сервера в датацентры во франции и германии.
                  • +2
                    Потому что это сетевая инфраструктура и там никто Fc не гоняет, потому что это аплинки.

                    lmgtfy.com/?q=fcoe
                    Название немного намекает…
                    Пруф на ваш датацентр

                    Какое именно слово из «Все каналы связи и всё сетевое оборудование всегда свои» вам непонятно? Вроде бы достаточно очевидно, что подобная информация не разглашается никогда. Или вам подписанное CIO письмо с распечаткой переписки по последним инцидентам? :)
                    потестирую его

                    Ну-ну :) Я бы на месте своего руководства долго хохотал после получения предложения похостить чужие ресурсы :)
                    • +2
                      То есть у вас просто частный датацентр? Без тысяч клиентов?
                      Ну так в локальном дц и у меня без особых проблем, тока свет когда тушат на долго капец, но такое раз в три года мне кажется.
                      • –1
                        То есть у вас просто частный датацентр? Без тысяч клиентов?

                        Опять же, разве я недостаточно ясно это сказал? И какая разница, один ли там клиент, или клиент один из тысячи, если вся активка своя? Само собой надо стыковаться не с местным сетевым оборудованием, которое непонятно как настроено и непонятно как резервировано, а напрямую с несколькими операторами связи. Правда, тут речь идет о масштабах покрупнее «пара сайтов». Хотя бы «пара рядов стоек с сетевым железом, корзинами серверов, массивами».
                        тока свет когда тушат на долго капец

                        С какой стати там отключаться свету чаще, чем на любой другой площадке? У нас даже в офисе, где только сотрудники работают, под окнами стоят на подхвате дизели, а в самом офисе длинные ряды аккумуляторов в ИБПшной.
            • 0
              Маршрутизатор — это не свитч и настраивать его не 10 минут. А за 10 минут на склад Вы попробуйте дойти, учитывая размеры ЦОД :) У Вас зато ЦОДы зашибись и ничего никогда не падает, я в этом не сомневаюсь. В виртуальной реальности (мысли) системного администратора, который прошел курс сетевого инженера у Вас ЦОД?
              • +1
                Маршрутизатор — это не свитч и настраивать его не 10 минут.

                Правда? Ну-ка расскажите поподробнее про отличия L3 свитча от хардварного роутера, а то и я уже давно их путаю, и все, кого я спрашивал, тоже ничего внятного сказать не могут :)
                Еще опишите, где там различия в подходах к конфигурированию. Ибо мне казалось, что примерно у всех вендоров конфиг одной командой экспортируется с активного супа в файл (заранее, а не после аварии), и одной же командой заливается на новую железку, с сохранением всех до единой настроек, как глобальных, так и портовых. Ну разве что, может, пары ключей по части крипто пересоздать, но в общем случае это не проблема. Итого, время полной настройки новой железки, идентичной старой, составит менее минуты, не считая время на включение и загрузку.
                У Вас зато ЦОДы зашибись и ничего никогда не падает

                Ну и для кого я тут расписывал примеры наиболее мерзких падений?
                Вопрос не к факту падения, такое у всех бывает. Вопрос к тому, почему восстановление длилось 4 часа. Опять же, можно вспомнить Cloudflare, которые за один час вывели из циклического ребута множество десятков тех самых маршрутизаторов того самого жунипера, по нескольким десятком ЦОДов после абсолютно аномальной аварии, вызвавшей отказ всего интернет-периметра.
                который прошел курс сетевого инженера

                Курс? Какой еще курс? Я отродясь не бывал на курсах по теме транспорта. На VOIP один раз ходил. Много лет назад посещал пару курсов MS. Но курсы сетевого инженера… Нет, не был. И говорю как есть: время замены отвалившейся железки никак не может составлять четыре часа в условиях, когда это влияет на продакшн. За одним исключением: если кто-то не позаботился о ЗИПе и дожидался RMA. Колитесь — так и было? И никто не проводил проверку отказоустойчивости как в тестовой, так и в боевой среде?
                (раз железка вроде бы менялась целиком, значит, это был миддл- или лоу-енд, вовсе не модульный, без сдвоенных супов, и ее наверняка можно было унести подмышкой — тем более возникает вопрос «а чем вы там столько времени занимались?»)
                • 0
                  Дело в том, что оборудование не настолько дешевое, чтоб могло лежать на складе в ЦОД и быть уже заранее настроенным. Конечно по той схеме, по которой Вы идеализируете — все решилось бы не более, чем за 30 минут (реальные цифры). НО тут надо было еще понять, что с оборудованием все же проблема требующая его замены. Временами бывают проблемы и не связанные с оборудованием (например, когда падает 70 Гбит / с DDOS или просто проводят работы). В том случае была непонятная проблема, причем она совпала с плановым утренним обслуживанием. И была вероятность, что проблема не из-за оборудования, а из-за проведения обслуживания. В итоге заменили шасси в сборе на одном из маршрутизаторов (high volume router). Обратите внимание, на английском правильно писать именно роутер, а не свитч. Разницу между роутером и свитчем думаю знаете и то, что роутер гораздо «умнее» спорить не будете. По факту оказались незначительно затронуты лишь серверы в 4-х подсетях. Это крайне малый % всего ЦОД.

                  Касательно ядер, то стоимость одного ядра оцениватеся порядка в миллион евро (это еще старые цифры, не учитывают роста трафика и оборудования). И их 2. Причем второе ядро находится в ДРУГОМ ЦОД. то есть за пределами EvoSwitch. Не на той же площадке. Возможно я все же сделаю в будущем небольшую статью по архитектуре сети, раз Вам так интересно, но могу сказать — она резервирована даже для сети Volume, причем весьма не плохо.
                  • –1
                    В том случае была непонятная проблема, причем она совпала с плановым утренним обслуживанием.

                    Вот это уже смахивает на правду. Не повезло :)
                    В итоге заменили шасси в сборе на одном из маршрутизаторов (high volume router).

                    А вот эта проблема реально достойна отдельного поста на хабре. Стиль — детективный. Описание проблемы, пути диагностики и в итоге отчаяние, вылившееся в замену шасси со всеми супами и модулями, что обычно не делается…
                    Разницу между роутером и свитчем думаю знаете и то, что роутер гораздо «умнее» спорить не будете.

                    Конечно буду. Я не знаю разницу между роутером и свитчем, серьезно. Возьмем например мой любимый свитч Cat6500, 80гб/с на слот и маркетинговые 2тб/с на шасси в полной набивке. Назовите радикальные архитектурные или функциональные отличия этой железки от тех же жуниперов серии MX, позволяющие сказать «каталист — однозначно свитч, а MX — однозначно роутер».
                    С младшими, софтверными роутерами попроще будет, у них основная логика реализована средствами CPU, и различие очевидно: «у свитча транзитный пакет не касается CPU».
                    А если бы роутер и был умнее, это ни на что не влияло бы, ибо JunOS «один на всех» (по их собственным заявлениям), и принцип работы с жуниперовским свитчем примерно тот же, что и с роутером. Абсолютно неважно какой степени «топовости».
                    И их 2.

                    Вполне логично, что на каждой площадке свой комплект ядер. Странно, если бы это было не так.
                    она резервирована даже для сети Volume

                    Я так и не понял — «Volume» является «SAN»? Хвастаться резервированием тут ну очень странно, учитывая, что отказ FC сети куда страшнее и куда дольше чинится, чем отказ IP сети. Под SAN обычно ставятся парами железки «директорского класса», на которых в теории ни один пакет никогда не потеряется, будь то падение активного супа, или обновление ОС, или еще что.
                • 0
                  >>Ну-ка расскажите поподробнее про отличия L3 свитча от хардварного роутера

                  А на L3-свичах продвинутых как сейчас с сервисами? Это практикуется? Ну там vpn, voip и подобное. И еще сразу приходит мысль о неEthernet интерфейсах, разной экзотике канального уровня (как правило WAN), тоже вроде не епархия L3 свичей при всей их продвинутости.
                  • –1
                    А на L3-свичах продвинутых как сейчас с сервисами?

                    На топовых роутерах, как и на свитчах, VPN в смысле IPSec тоже крайне редкий гость. Обычно надо что-то докупать. В случае каталиста — хотя бы тот же ASA-SM. Что до VOIP — есть мнение, что даже если старшие жуниперы MX его и поддерживают, никто никогда его на них не поднимает. Но, опять же, всегда есть варианты. Но нецелесообразно это. Обычно ставят куда более дешевые ISRы, или еще более дешевые узкоспециализированные железки (продукцию Audiocodes например).

                    А VPN в смысле MPLS, как и любые другие операторские и не очень техники инкапсуляции — на здоровье.
                    о неEthernet интерфейсах

                    Было бы желание.
                    Но и это, как и IPSec и тем более VOIP, я не назвал бы важным критерием роутера. По крайней мере, достаточно дорогого, хардварного роутера, от которого требуется быстро пропускать через себя сотни гигабит трафика с разными сервисами. В этом случае речь как правило идет об ethernet. Вообще, операторы сейчас что угодно заворачивают в ethernet.
      • 0
        На счет железки — там Juniper'ы.

        Juniper на картинке из топика на самом деле является Cisco ASR 9000 series :)
        • 0
          Да, действительно, спасибо. Циски там тоже есть, но их меньше, нежели джуниперов, ибо они дороже. На фото получается именно циска запечатлилась, видимо надо делать фотки с большего расстояния, чтоб видеть точно, что в кадре, хотя профи узнают и по фотографии, как показал Ваш опыт :)
    • 0
      > Так и запишем — «резервирования нет».

      с какой стати?
      у меня проблемы были только из-за ддос-ов (мой хостер не защищает), а даунтайм вообще нулевой — о проблемах узнаешь только из рассылок.

  • 0
    А в каком из *nix есть tracert?
    • +5
      во всех, но называется traceroute
      • 0
        Угу, а во всех win* есть пользователь root, но называется Администратор.
      • 0
        tracepath есть везде, а вот traceroute надо ставить еще))
        • +2
          не везде, в freebsd нет к примеру
    • 0
      В пятом центосе даже был алиас tracert -> traceroute, а в шестом выпилили и теперь нельзя как в винде трасерт написать.
      • 0
        А кто мешает нужные алиасы в .~/.$yuorshellrc прописать? ну или в системном профиле?
        • 0
          Ну как то не кошерно везде ручками прописывать.
          Одно дело свой один сервер, другое дело тысячи серверов у разных клиентов.
          • 0
            У меня товарищ держит свой ~ и /etc в git. Легким движением руки нужные конфиги укладываются на место.
            PS есть еще такая штука как SystemImager и Puppet. Без первой (SystemImager с обвязками) я бы наверное задолбался обновлять все ноды кластера портала finance.ua до актуальной версии через несколько часов. А это было несколько лет назад
            • 0
              Ну как то не думаю что каждый мой клиент обрадуется появления какого нить гита или паппета или тем более систем имагера на своем сервере.
              Я ещё раз скажу что хорошо на своем сервере, то не всегда хорошо на серверах клиентов.
              Как сделать алиас массово по моему и так всем линуксоидам ясно.
              • 0
                Тут я с Вами согласен — если клиентский сервер администрирую я — ему плевать что там делается, пока всё работает и сеервис онлайн.
                Если администрирует клиент, то я только мониторю сервер и практически в его работу не вмешиваюсь
  • НЛО прилетело и опубликовало эту надпись здесь
    • +2
      Вы вообще читали о чем суть? Далее написано о том, что и без карты могут зайти на сайт, где заглушки нет и расположен он в другом регионе. У Интернета нет границ. Так что спрятали или нет — без разницы. Но в большинстве случаев карту спрятать нереально, «дети» задавшись целью найдут :)
      • НЛО прилетело и опубликовало эту надпись здесь
        • +1
          Ну и живите с таким мнением в своем совке. В Нидерландах никакой проблемы с детьми нет, хотя порнография разрешена официально и доступна. Ограничить могут родители, а не установка запретов на размещение таких сайтов. Более того, пока ребенку не начинает быть это интересно — он САМ не стремится посещать подобные сайты, а когда интересуется — он уже не совсем ребенок. Все естественно. И вводить какие-то «запреты» со стороны законодательства — бред. Ибо этими запретами фактически ущемляются интересы адекватного населения.
          • НЛО прилетело и опубликовало эту надпись здесь
            • +1
              Я почему-то не вижу в Нидерландах проблем с влиянием на будущие взрослые личности, хотя все открыто и доступно. Если подростку нужно посмотреть что-то «взрослое» — значит оно ему нужно и он до этого дорос, лучше пусть посмотрит, чем пойдет пробовать. Вы сейчас приводите стереотипы «совка». Именно потому раньше в «совке» думали, что «секса нет». То, что эта информация есть в открытом доступе, даже не плохо, а очень хорошо, так как подобного рода информация обучает. Есть много тематических сайтов, в том числе информационной направленности. В результате меньший % рожает в 16 лет, так как уже осведомлены о всех нюансах.

              Кроме того, у каждого человека организм совершенно разный. Биологически половая зрелость наступать может и гораздо ранее 16. Да, помимо этого нужно, чтоб еще «зрелость» в мозгах возникла, не спорю. Но не нужно себя считать самым умным. Некоторые дети ведут себя куда взрослее «взрослых». Все от внешнего влияния зависит, а не от порносайтов в открытом доступе. Если родители идиоты — ничего не поможет, никакие законодательные запреты, которые вообще безсмысленны, когда в большинстве стран таких запретов нет и Интернет доступен. При этом никакой катастрофы в таких странах со становлением будущих взрослых личностей не наблюдается по причине открытости информации, а наоборот наблюдается положительная динамика. Хотя, как уже сказал — Интернет открыт, потому положительная динамика стала наблюдаться и в странах с запретами. Эти запреты только заставляют дорого платить за внешний зарубежный трафик и не более того.

              Хотя в России это уже поняли и создали Вконтакте, где масса порно и контрафакта, при том, что это официально якобы запрещено — никто сайт не закрывает. В данном случае сыграла роль не только жажда наживы, а желание монополизировать эту нишу, держать народ под полицейским контролем. Вы бы про это переживали больше, что законы избирательно работают, а не о том, что где-то в Нидерландах не запретили сайты для взрослых в открытом доступе.

              Если «ребенок», еще не дозрел — он сам никогда не будет искать информацию подобного рода, потому что оно ему НЕ НАДО. А ели дозрел, то это уже не ребенок.
              • 0
                Я соглашусь с вами во всем, кроме одного — в интернете порнографию искать не надо, она сама прыгает на тебя из-за каждого угла.
                • 0
                  Вы, видимо, не по тем сайтам ходите? Я за последние лет 5 не видел ни одной рекламы услуг эротического содержания, хотя эти самые последние 5 лет все никак adblock к броузеру прикрутить не могу, уже даже привык — на почти всех посещаемых мною сайтах реклама ненавязчива, даже если это сайты с контентом для взрослых
                  • 0
                    Я-то как раз хожу по тем сайтам, и, так же как вы, в последнее время такой рекламы не видел. Но это просто потому, что мы с вами знаем куда ходить а куда не ходить.
                    С год назад я первый раз подпустил своего папу к интернету. Объяснил на пальцах что такое гугл, как искать то что надо и ушёл на тренировку. Когда вернулся через 2 часа увидел около 50 окон всевозможной порнушки. Тут, конечно, можно поспорить о степени «испорченности» моего папы, но с другой стороны — я знаю, что это не то, что он искал. Но, тем не менее, нашёл и заинтересовался.

                    Не поймите меня не правильно, я совсем не за запрет порнографии, как раз наоборот. Я так-же не считаю, что её надо прятать. Надо просто не закрывать глаза на то, что она есть и воспитывать своих детей соответственно.
                    • 0
                      Есть замечательная штука — родительский контроль от Microsoft'а.
                      Есть более простая штука — как сделали мои знакомые ИТшники — с ребенками была проведена достаточно длинная беседа, о том, какие сайты хорошо, а какие плохо, и почему в список «плохо» попадают рассадники порнухи вроде желтой и синей социалок и почему там находиться не стоит, с наглядными примерами роликов насилия в школе, кажется.

                      В результате проведённое воздействие передалось на весь класс, некоторые дети во синюю социалочку заходить перестали.
  • 0
    > Уже установленные серверы
    Я залип на этой картинке минут на пять.

    П.С. Включите плавную прокрутку в браузере и покрутите страницу вниз-вверх (действует только на небольших экранах).
  • 0
    Круто! Написали бы тогда уж и про реселлеров. У кого купить можно?
    • 0
      LeaseWeb же
      • 0
        LeaseWeb и EvoSwitch входят в OCOM Group, по этой причине это фактически одно и тоже. Перепродать услуги можем и мы, так как разещаемся там.
    • 0
      И у нас можно.
  • 0
    Ввела в замешательство фотка «уже установленные серверы».
    Для чего их все туда набили без рельс? На следующем фото они уже на рельсах. Получается их засунули, сфоткали, вынули, поставили рельсы и засунули снова. А нет ли фото с подключенными серверами по питанию? Очень интересно глянуть как укладка проводов выглядит, особо короткие кабели закупают, или в толстую колбасу стяжками замотали, или кабель канал все таки потом монтируют чтобы выдуву не мешал? Просто очень маленьким шкаф показался. Хм, да и одной пдушки мало будет для стойки забитой 1u серверами.
  • +1
    Столь замечательная связность позволяет мне работать с моими серверами в Нидерландах на скорости выше, чем с серверами расположенными в Киеве в Дата Центре «Utel» Укртелекома.

    Ваш провайдер входит в UA-IX и видит ДЦ Utel с отличной связанностью.
    Так что «не надо ля-ля».
    • 0
      Причем тут мой провайдер? С отличной связностью мой провайдер видит даже Нидерланды. Речь о Утеле. У Utel'а периодами прашивый даже UA-IX, а еще из разных шкафов по-разному работает. У нас был 10-юнитовый шкаф, где размещался Кинопоиск, так пока мы не забрали его в свой другой 42-юнитовый — они жаловались на скорость в УКРАИНУ. У Утела глючил маршрутизатор, если Вы не в курсе. Даже Андрей с серча может это подтвердить. Вомзожно правда уже заменили, но даже сейчас я из дому загружаю на наши серверы в Utel файлы с постоянно меняющейся скоростью, порой падающей ниже 25 Мбит / с на поток, в то время, как в Нидерланды у меня из дому полноценная сотка без колебаний скорсти. У моих знакомых есть крупные стримминг-проекты и порой мне из дому приходилось передавать до 5 ТБ данных. Я знаю, о чем говорю. Наелся каналов Утела и Воли. И больше пробовать не хочу.
      • 0
        У Воли действительно печальные каналы в мир.
        У Утела с этим проблем нет.
        Последний раз были лет 6 назад, когда они у всех были, в общем-то.

        Я прекрасно понимаю что вы пришли на ресурс в очередной раз пиарить свой реселинг далеко не самого лучшего ДЦ.
        Так было и в случае с Волей, когда вы рассказывали сказки о том как там все прекрасно, хотя люди то знали. )))
        • 0
          Мтр-ы в студию, подтверждающие, что проблем нет. А так же измерения скорости на поток пожалуйста. Вот когда я увижу, что скорость на поток составляет хотя бы 30% от той, которая обеспечивается в EvoSwitch, и эта скорость будет стабильна и практически одинакова по показателям, как в Москву, так и Питер, без потерь пакетов и рывков на графике (при генерации сервером суммарного трафика не ниже 600 Мбит / с, а то с ненагруженного подключения результаты совсем иные выходят) — я с Вами соглашусь, что там проблем нет. Завязывайте с Вашими домыслами. У Вас же даже нет сримминг проектов, а начинаете тут «учить», ибо если бы были и Вы действительно хороший админ — Вы бы видели совсем не прекрасную картину. Что Вы мне пытаетесь доказать? Что Утел не кал? Кал. А еще жутко бюрократический ЦОД с пофигистическим отношением. У нас там остался шкаф тех, кого «прекрасное качество» устраивает ТОЛЬКО ценой и не мало не много 8 Гбит / с каналов в этом шкафу. И то люди уже начинают понимать суть и переходят на нормальную площадку в Нидерланды.

          Когда мы работали на Воле — там было все прекрасно. Когда там стало не прекрасно — мы долго с этим боролись, жаловались, ничего не решилось (ибо у Воли денег не было на нормальные аплинки, одна файлопомойка, как оказалось позднее — забила ей 50 Гбит / с за 50 000 грн и в этом была причина) и ушли в Утел. В Утеле до Евро-2012 скорость в мир была «потрясающая» — 10 Мбит / с на поток (против 2 Мбит / с в Воле, которые порой падали до 500 Кбит / с). К июлю начались проблемы и там. У Вас то серверы в Утеле есть хоть генерирующие серъезный трафик, аггрегация линков? Вы посмотрите мтр-ы и увидите как там сейчас «прекрасно». И как там маршрутизаторы интересно у них работают, что с одного шкафа жалуются абоненты, что нет скорости даже в Украину, а с другого жалоб нет и все прекрасно. По этой причине мы им и вернули 10 юнитов с 1 Гбит / с, который там был подключен.
          • 0
            Вы всегда любили много писать чтобы как-то повысить собственную важность.
            Также всегда размещались в low-cost датацентрах в которых всегда были проблемы.
            EvoSwitch не исключение.

            У нас по историческим причинам остались два сервера в Воле, но не более того.
            Для остального мы построили свой ДЦ с качественными апликами и резервированием, где я могу прокачать хоть 40Гбит на сервер.
            Также есть свое железо в BeMobile, ДЦ с честным Tier 3+, я был там и видел что это.
            Не один из выбранных вами «отличных» ДЦ и рядом не валялся.

            Так что интересом жду когда до вас дойдет, как и до многих других, что в EvoSwitch далеко не хорошо, и вы начнете поливать грязью и их.
            А ведь за что платите, то и получаете.
            • 0
              Вы всегда любили не отвечать на поставленный вопрос, где мтр-ы и доказательства того, что в Укртелекоме хорошие каналы в Россию? Вы там даже не размещаетесь, скорее всего даже не имели опыта работы с тем ЦОД, а при этом создаете много флуда.

              На счет BeMobile я кстати ничего плохого не говорил, BeMobile — хороший ЦОД, но и цены там несколько иные и ориентировано оно на клиентов в основном из банковского сектора, которые покупают там услуги даже не шкафаи, а модулями. Не смотря на то, что BeMobile хороший ЦОД, ему до EvoSwitch далеко в технологическом плане и в плане охраны даже. Если Вы утверждаете обратное — скажите чем лучше. Давайте оперировать фактами, а не выдумками.

              Какой бы BeMobile ни был — там не будет такой связности, при всем желании и это уже огромный минус. Опуститесь с неба на землю. В Украине просто не найдется такого количества аплинков, да и построить свои включения в такое количество точек обмена им не по карману немного.

              EvoSwitch — далеко не low-cost, хотя цены на некоторы услуги гораздо ниже украинских, особенно сейчас, при качестве гораздо выше. Побывайте там и тогда сравните с BeMobile. Поймете, что разница существенна. Я кстати был и там и там, это к сведению :) VISA и другие платежные системы, а также банки — держат в EvoSwitch инфраструктуру. Для этого сущесвует Secured Gage, который там запросто можно арендовать.

              На счет Дата Центра Даниила, я очень рад, что он построил свою площадку, но с тем бюджетом, который был израсходован на ее построение — это просто смешно, всего лишь еще один маленький «домашний» Дата Центр, не более того. Там хотя бы серверы в шкафах, а не стойках? Качество ЦОД меряется не количеством гигабит в один шкаф или сервер. К слову в EvoSwitch тоже без проблем можно получить, хоть 100 Гбит / с в один шкаф, оптические порты за Ваши деньги Вам предоставят в нужном количестве. Более того, эти 100 Гбит / с Вы без проблем можете распределять на нужное Вам количество шкафов (что сложнее, чем в 1), что успешно и делает одна компания.

              «Также всегда размещались в low-cost датацентрах в которых всегда были проблемы.
              EvoSwitch не исключение.»

              Я не спорю, что мы начали в Украине не с самых лучших ЦОД, это и невозможно было. Всем же все дай дешевле. Но говорить, что в EvoSwitch всегда проблемы — как минимум странно. Значительных аварий не было ни разу. Когда были проблемы в последний раз? Если и бывают проблемы, то они затрагивают максимум шкаф, или небольшую часть ЦОД. И они настолько краткосрочны, что абоненты попросту их не замечают зачастую.

              Тем не менее я не боготворю этот ЦОД, а написал довольно критичную статью и про проблемы, которые там были и есть. В данный момент ничего лучшего я не нашел, хотя есть довольно неплохие конкуренты этого ЦОД в Амстердаме, но им пока далеко. А такие, как Вы, будут и далее продолжать пытаться неоправданно облить грязью и защищать свои «домашние» Дата Центры, чтоб просто не потерять клиентов. Потому как есть площадка, где сейчас гораздо более низкие цены и гораздо более высокое качество.
              • 0
                «Даниил построил».
                Смеялся от души, спасибо.
                Дальше не читал.
                • 0
                  Если я не обладаю какой-то информацией по упомянутой площадке Tier2 в Харькове (с «отличными аплинками», кстати привели бы список, mtr-ы и заодно стоимость гарантированного гигабита для конечного пользователя) — уточнили бы ее. Потому что уже мне смешно, что ответов по существу от Вас не дождешься. Ни на прошлые вопросы, ни на то, чем BeMobile лучше, ни на тот вопрос, когда это в EvoSwtich были постоянные проблемы. Не помню такого вовсе. Некоторые серверы уже более года онлайн без перезагрузки и деградации каналов к ним не было ни разу, даже на 5 минут. До того, как начать сотрудничество напрямую, мы сами покупали там серверы не напрямую продолжительное время и проработали примерно 1,5 года. И так же все было прекрасно. Может я чего-то не знаю, а Вы там размещались и у Вас были проблемы? Расскажите подробно, интересно узнать.
  • +1
    Я не доктор, но на вид написанно все про leaseweb.com — и SLA их, и сервера, и даже трейсы.
    • +1
      LeaseWeb / EvoSwitch входит в OCOM Group. Это одна группа компаний. Дата Центр называется EvoSwitch, а услуги предоставляет в нем LeaseWeb.
      • 0
        ага, а вы, как реселлер LeaseWeb — делитесь с клиентом частью своего SLA и скидкой, добавляя допстоимость приемом местной валюты и локальной техподдержкой.
        • +1
          Верно, при этом схема идеальна для всех сторон. Самое основное — конечно поддержка, ни у клиента, ни у LeaseWeb не возникает головной боли друг от друга и дело не только в SLA, а в том, что большая часть вопросов решается без участия LeaseWeb, если все же необходимо вмешательство инженера — мы четко и ясно ему говорим, что требуется сделать, так как зачастую процедура нам известна.
  • 0
    В коммутационной комнате Дата Центра можно увидеть «спагетти» из сотен оптических кабелей желтого цвета (пропускной способностью 10 Гбит / с), и значительно меньше оранжевых (пропускной способностью 1 Гбит / с)

    плакал… «желтые» патчкорды могут использоватся и в 100G, і 400G и 1T, и для DWDM, где из 10/100G собираются до 96 каналов. А можно и 100Mbps Ethernet передавать.

    Желтые — single-mode, оранжевые — multi-mode fiber, и прямо не связано с скоростю на порту
    • 0
      Речь шла не о физических возможностях оптического патчкорда, а о том, включения какой скорости ими реально обеспечиваются в EvoSwitch. Спасибо за уточнение физических характеристик. Но акцент делался на то, что одномодовых (желтых патчкордов) больше, так как у них лучшие транспортные характеристики, за счет меньшей модовой дисперсии. И как уже было замечено в обсуждении выше — это более дорогое решение, но оно необходимо для обеспечения связности свыше 3 Тбит / с с внешним миром.
      • 0
        оно необходимо для обеспечения связности свыше 3 Тбит / с с внешним миром.

        А операторы напрямую заводят дальнобойную оптику в ваше железо, или все-таки терминируют ее в своих стойках, откуда кидают дополнительные волокна до вас?
        • 0
          Дело в том, что ЦОД расположен в Хаарлеме и многие стойки операторов расположены в EvoSwitch, в Хаарлеме попросту не существует более надежного места для этого. По этой причине — да, туда заводится дальнобойная оптика. Кроме того, EvoSwitch не покупает каналы погигабитно, а может себе позволить купить сразу всю магистраль, либо нужное количество волокон. В EvoSwitch есть своя сеть за пределами ЦОД, в том числе проходящая через «метро» от аэропорта Схипхол до Амстердама.
          • 0
            Делают же люди…

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое Разное