ua-hosting.company
Компания
188,74
рейтинг
27 августа 2013 в 17:50

Разное → Тестирование 10 Гбит / с серверов в Нидерландах, теперь серверы доступны и в US! От $2999 / месяц!

В этой статье я расскажу о принципе подбора правильной конфигурации для мультигигабитного стримминг-решения, но для начала немного рекламы :). Более месяца назад мы анонсировали новость о начале предоставления выделенных серверов в Нидерландах с гарантированным каналом 10 Гбит / с без ограничения трафика.

http://ua-hosting.com.ua/nl-servers.html — заказ 10 Гбит / с серверов доступен здесь.

Пришла пора сообщить, что это правда и реальность и в данный момент лучшее предложение на рынке, помимо этого мы первые начинаем предоставлять подобные серверы в США и, кроме того, еще больше понижаем акционные цены. Теперь у Вас есть возможность арендовать сервер с выделенным 10 Гбит / с подключением в сеть Интернет без ограничения трафика по цене от $2999 / месяц, в зависимости от выбранной конфигурации, в локациях Нидерланды или США на выбор! Регламентируемый срок установки серверов 7-14 рабочих дней после оплаты, однако в реальности мы зачастую выдаем серверы уже через день после их заказа.

Тут лишними будут какие-либо слова, график загрузки канала одного из клиентов говорит сам за себя:

image

image

Да, некоторым нашим клиентам и 10 Гбит / с мало :)

Но крайне важно подобрать правильную конфигурацию под Ваш проект, чтоб выделенный 10 Гбит / с канал мог использоваться в полной мере и максимально эффективно. Так, сервер в начальной конфигурации Intel Xeon E3-1230 / 8GB DDR3 / 2x500GB SATA2 / 10Gbps Unmetered зачастую не способен отдать даже 1 Гбит / с трафика, не то, что 10.

image

Причина — ограничение IOPS-дисков (операции чтения / записи в секунду), которое определяется типом диска и его конструкцией и о котором нужно помнить всегда. Конечно, если все Ваши файлы смогут уместится в оперативной памяти сервера в кеше — это ограничение не проблема, но зачастую оперативной памяти будет мало.

Если Вы не уверены, не знаете своей нагрузки (сколько пользователей будут скачивать / смотреть файлы одновременно) — запрашивайте замену SATA-дисков на SSD и ставьте побольше оперативной памяти, разница в цене в несколько сот долларов несущественна в сравнении с общей стоимостью аренды 10 Гбит / с решения, не экономьте. Не существует ничего более эффективного, чем SSD.

Чтоб понять это — достаточно сравнить производительность, не нужно быть техническим специалистом.

7,200 об/мин SATA-диски ~75-100 IOPS (варьируется в зависимости от того блоками какого размера считываются данные, последовательно или случайно, производится ли запись и т.п.)
15,000 об/мин SAS-диски — ~175-210 IOPS

Intel X25-M G2 MLC SSD ~8 600 IOPS
OCZ Vertex 3 SSD ~60 000 IOPS (Произвольная запись 4K)
OCZ Vertex 3 MAX IOPS SSD ~75 000 IOPS (Произвольная запись 4K)
OCZ Vertex 4 SSD ~120 000 IOPS (Произвольная запись 4K)
OCZ RevoDrive 3 X2 SSD ~200 000 IOPS (Произвольная запись 4K)
OCZ Z-Drive R4 CloudServ SSD ~500 000 IOPS PCIe

Как видим твердотельные накопители SSD вне конкуренции и за счет отсутствия двигающихся деталей способны обеспечить поразительную производительность, таким образом один SSD-диск зачастую равен по производительности нескольким сотням SATA или даже SAS-дисков, конечно, если речь идет о стримминге файлов, а не о работе с базами данных. При работе с базами данных SAS-диски могут быть эффективнее из-за особенностей архитектуры БД, а SSD быть менее производительными.

Но так как 10 Гбит / с серверы зачастую используют именно для отдачи файлов, стримминга видео, то SSD вне конкуренции. Тем более, что SSD в отличии от SATA «умирают» прогнозировано, время жизни определяется количеством операций перезаписи, которые при помощи контроллера более-менее равномерно распределяются по диску, а после «смерти» диска восстановить данные с него возможно. Таким образом, если идет в основном считывание Ваших файлов, SSD, в отличии от SATA, может жить практически «вечно». Хотя бекапы все равно делать нужно.

Для примера приведем результат генерации трафика при помощи такой конфигурации 2 x Intel Hexa-Core Xeon E5-2420 / 96GB DDR3 / 8x240GB SSD / 10Gbps Unmetered:

image

Проблема в том, что SSD на порядок дороже SATA и зачастую требуется пользователям разместить порой до 10 ТБ данных на одном сервере и более, физически сложно организовать хранилище такого объема данных в одном сервере на SSD и смысла мало. Распределение файлов на несколько серверов — также не всегда экономически выгодно.

В таких случаях приходится комбинировать SATA и SSD диски, используя последние, как кеш для часто запрашиваемых файлов. Но подобные варианты уже требуют специфических знаний в администрировании и настройке «кластера» с балансером нагрузки. Как показал опыт, объем SSD под кеш должен составлять не менее 10% от объема файлов на SATA, так же полезной может быть репликация файов на разные SATA-диски и, как следствие, отдача одного и того же файла разным посетителям с разных дисков. Использование RAID-массивов в данных случаях, как аппаратных, так и программных — не эффективно. Уже при трафике свыше 4 Гбит / с могут возникать проблемы в виде падения скорости отдачи определенных файлов некоторым пользователям. По этой причине диски нужно использовать раздельно.

Минус в таком решении в том, что нужно четко понимать структуру своего проекта и тенденции его развития, обдумать, какими методами обеспечить нормальный просмотр (без падения скорости на поток) в пиковые моменты и самое главное — уметь спрогнозировать эти пиковые моменты. Кроме этого, если Вы планируете еще и конвертировать видеофайлы на сторедже, под это лучше выделить отдельные диски и оснастить сервер, как можно более производительным процессором, оперативная память в пиковые часы также будет не лишней.

Неплохим вариантом для таких целей может быть 2 x Intel Octa-Core Xeon E5-2650 / 128GB RAM / 8x3Tb + 4xSSD 240 Gb / IPMI/ 10Gbps Unmetered (в случае, если стоит задача конвертировать видео) либо 2 x Intel Hexa-Core Xeon E5-2420 / 96GB DDR3 / 6x3TB SATA2 + 6x240GB SSD / IPMI / 10Gbps Unmetered в случае стримминга, но без конвертации, когда процессор не критичен. Несколько красивых графиков с вышеуказанных реальных серверов клиентов:

image

image

image

image

image

Теперь остался еще один вопрос — трафик. Сколько реально полосы необходимо для обеспечения стримминг-задачи? Рассчитать необходимую емкость канала очень просто, необходимо битрейт видео умножить на количество просмотров одновременно + не забыть добавить немного сверху на буферизацию и всякого рода фиктивные запросы.

Если Ваше видео имеет битрейт 1,5 Мбит / с и есть задача в его просмотре онлайн 5000 человек одновременно — Вам необходим минимальный канал 7500 Мбит / с + хотя бы 10-15% сверху для буферизации, либо предусмотреть возможность понижения качества транслируемого потока. Ну и не нужно забывать о том, что посещаемость Ваших сайтов все время меняется, все зависит от выдачи поисковых систем, лучше иметь, как минимум 30% канала в резерве.

Ну и последнее, с хорошим каналом Ваш трафик будет расти стремительно (пример на недельном графике выше для сервера SKRS433, трафик вырос в пике на гигабит за неделю), также, как и стремительно будет развиваться Ваш проект, мы предоставляем каналы наилучшей связности, Ваши пользователи это оценят и это способствует росту аудитории, причем каналы предоставляются сейчас за минимальные деньги, это оцените Вы :). Не забывайте покупать дополнительные каналы вовремя (во время распродаж цена ниже, полезно покупать впрок), трафика не бывает много, даже начинающие стримминг-проекты генерируют солидный объем трафика, если предоставить такую возможность, пример ниже.

image
Автор: @HostingManager
ua-hosting.company
рейтинг 188,74
Компания прекратила активность на сайте

Комментарии (48)

  • +1
    Что в качестве сетевух?
    • 0
      Intel x 540 UTP 10GE
  • +1
    Вы так сравниваете SSD с SATA как будто у вас SSD исключительно с PCIe интерфейсом.
  • +2
    А разве не круче в качестве кеша использовать оперативную память в размере 10% от ёмкости SATA?
    Она ведь побыстрее SSD будет.

    Стоит немного дороже SSD, но если чип не бракованный — вечная.
    • 0
      я думаю сервера стриминга и отдачи контента и так держат в памяти те данные которые отдают (да взять тот же nginx) и при активной отдаче 96-128 гбайт может и не хватить для хранения всего что запрашивается и все равно придется лезть на диск
      • 0
        Хорошие сервера позволяют ставить и 512Гб оперативки. Оперативка всего на 20-30% дороже SSD.
        • 0
          512Г не так много, если в сервер напихано много дисков. Иногда рейд на пачке SSD выходит подходящим решением.
        • 0
          А серверы у которых меньше 512 ГБ оперативки, плохие? :) У нас 10 Гбит / с серверы поддерживают максимум 384 ГБ оперативной памяти. И оперативная память на 384 ГБ обойдется Вам в $590.00 / месяц, для сравнения 4x240GB SSD — $195.00 / месяц.

          Так что говорить о том, что оперативка всего лишь на 20-30% дороже — не корректно. При большом объеме ее стоимость выше стоимости SSD в разы. Так же не забывайте о стоимости самого сервера, который должен эту память поддерживать…
          • +2
            При большом объеме ее стоимость выше стоимости SSD в разы.

            Ну это потому что вы такую ломовую стоимость аренды назначаете.

            А если её покупать самому, то она обойдётся, как я и сказал, несильно дороже серверного SSD.

            Сервер нужно искать с возможностью всунуть много планок. Не так уж сильно от по цене отличается от обычного. В любом случае сервер, как и память, это разовая плата.

            Я давно пришёл к выводу, что если хочешь нормальный сервер, то только коллокейшен. В аренду его брать невыгодно.
            • 0
              inetstar, Вы наверное немного не понимаете, сколько стоит сервер с 384 ГБ оперативной памяти. Цена не ломовая, а одна из самых низких на рынке.

              Пожалуйста, Вы можете купить свой сервер и поставить на колокейшн. При этом Вы будете платить гораздо дороже за гигабит и размещение, чем за аренду сервера, если только Вы не аренудете в ЦОД свои модули и не клиент, который занимает более 10% ЦОД. Коло Вам по таким ценам никто не даст, так как просто никто не хочет парить себе мозг чужим оборудованием. В том числе и мы, идем на такие варианты только в крайних случаях.
              • 0
                Ну и помимо прочего, ЦОД закупает серверы десятками тысяч, оборудование вообще по сути предоставляется в аренду практически бесплатно клиентам, плата за аренду сервера — это фактически плата за канал и размещение, обслуживание. Эта бизнесс-модель давно работает в Европе и США, так как все давно поняли, что стандартизация и закупки многими тысячами — позволяют значительно сэкономить, уменьшить количество людей, необходимых для обслуживания.

                Наши же до сих пор думают и греют себя мыслью, что покупать оборудование выгоднее… Выгоднее, только если это мегапроизводительные серверы, которых нет в стандартных закупках ЦОД, тогда да. Покупка окупит себя за год-полтора.
                • 0
                  О чём я и говорю. При колокейшене имеет смысл ставить крутые серваки и загружать их по самое нехочу, т.к. платится только за место и канал.

                  Окупаемость за год, а дальше профит.
                  • +1
                    Дальше профит, если проект удался, а если в сервере пропала необходимость через пол года — убытки.
            • 0
              Гораздо выгоднее заключить долгосрочный контракт аренды, чем покупать сервер в 99% случаев, почему:

              — Вам будет предоставлена хорошая цена;
              — Вам не нужно беспокоится об удаленных руках, если что случится;
              — когда контракт закончится — Вы можете просто отказаться от сервера, не будет проблемы с утилизацией старого оборудования;
              — всегда можно договорится об апгрейде на более производительную конфигурацию;
              — замену вышедших из строя комплектующих или даже сервера проводят бесплатно в течении максимально быстрого времени.

              Но, конечно же, все зависит от специфичности Ваших конфигураций, если они крайне специфичны — проще купить.
              • 0
                Тут необходимо уточнить, что в 99% — это либо для старпапа, либо для другой подобной небольшой неуверенной в необходимости сервера организации. В любом случае число завышенное. Полно стартапов, которые начинают с закупки серверов. Возможно не от большого ума)))

                В абсолютных числах большинство серверов в мире, я думаю, находится в собственности, а не в аренде. У Гугла миллион серверов, у ебей, микрософта и т.д. Аренда сервера целиком (в отличие от хостинга) выгодна в основном на краткие сроки.
        • 0
          В хорошие сервера и 1.5 террабайта влезет www.dell.com/us/business/p/poweredge-r820/pd
      • +1
        Это надо отдельно настраивать (самое простое решение — ramdisk с самыми горячими файлами, обновляемыми по расписанию). Потому как кэширование в памяти при включенном aio не используется, а без него, диски очень быстро задохнутся.

        Мы только с памяти (256) смоги вышать 40Гбит трафика. В итоге. гибрибный сервер 24 ssd + 256 памяти выдавал 75. Дойти до 80 получилось лишь реализовав собственную логику кэширования блоков. Но зато сервер под такой нагрузкой даже шевелится и idle показывает.
  • +1
    Не существует ничего более эффективного, чем SSD.

    Существует — оперативная память. Примерно в 1000 раз быстрее.
    • 0
      Речь о дисках, оперативной памяти недостаточно. Даже если будет 512 ГБ — многим этого не хватит для кеша. Для кеша требуется МИНИМУМ 10% от объема файлов, а если файлов 10 ТБ? 1-2 ТБ оперативной памяти? Как Вы себе это представляете?
      • 0
        Это смотря какие файлы и какой ресурс. Вполне реально и 40Г выжать с 256 оперативы (выше писал). Но это, конечно, либо способ убрать полку на остальных серверах, либо какая-то дикая популярность у несколько файлов (допустим, рекламные ролики в HD хостить, которые прероллами идут десятками миллионов показов в сутки).
        • 0
          esc, невнимательно читали пост, про то, что с оперативки реально выжать 10 Гбит / с — указывалось, просто в реальности не так много таких проектов, которые только с оперативки могли бы отдавать 10 Гбит / с. В основном лучшее решение — использование SSD + RAM одновременно, когда файлов очень много — приходится добавить HDD и отдачу кешировать на SSD и в RAM.
          • 0
            Та нет, я читал. Просто не соглашаюсь с «минимум 10%». Оно даже в общем случае не работает, надо от задачи смотреть. Я не согласен с теми, кто предлагает использовать память вместо ssd в общем случае, если что;)
            • 0
              Согласен с Вами, что нужно смотреть от задачи. И также не согласен с использованием памяти вместо SSD. Оптимально использовать и RAM и SSD в комплексе. На счет «минимума» 10% — это опытное значение и разумеется зависит от специфики проекта. У Вас другая цифра вышла?
        • 0
          esc, 80 Гбит / с конечно мы не пробовали отдавать одним сервером, это очень дорогое и технически сложное решение. У нас к сожалению пока таких трафикогенераторов нет, было бы интересно почитать о Вашем опыте подробнее.
          • 0
            Возможно, я о нем напишу статью. Решение на самом деле не очень дорогое, проблема только в корпусках supermicro на 24 винта без экспандеров (с прямым подключением). Их пришлось 2 или 3 месяца ждать, пока в Киев привезут. Но в остальном, все достаточно стандартно, каждый сервер в районе 15к$ вроде бы обошелся.
            • 0
              А, нет, извините, с ценой наврал. Надо перепроверить.
            • 0
              Спасибо, не забудьте оставить линк, интересно почитать.

              Для нас дороговизна решения определяется отклонением от стандарта. ЦОД не выгодно закупать «не ходовый» корпус. Хотя, конечно, при долгосрочном контракте — поставка возможна.

              К примеру, на завтра поставляем клиенту такие серверы (с увеличенным объемом SSD):
              2 x Intel Octa-Core Xeon E5-2650 / 128GB RAM / 12x 480 Gb SSD / IPMI/ 10Gbps Unmetered

              1 cервер такой будет доступен с моментальной активацией.

              В случае необходимости в 80 Гбит / с в Нидерландах — обращайтесь. Можем реализовать и подключить Вашу железку. Цена может быть интересной. Но потребуется соглашение об аренде на протяжении минимум 12 месяцев, что в принципе, думаю, не будет проблемой, так как такие решения обычно нужны на долгий срок.
              • 0
                Ну финансовый вопрос аренды нестандартного сервера уже отработан. Это либо долгосрочная аренда либо просто «покупка» такого сервера у вас (полностью или только нестандартных деталей). Вопрос лишь в желании таким заниматься;) Цены уже достаточно приятные на канал, но сначала надо пнуть тех, у кого я сейчас беру;)
                • 0
                  Покупка только «нестандартных» деталей — не вариант, так как возникают документальные бюрократические сложности. Потому вариантов только 2, либо сервер полностью в аренде, либо он куплен. Думаю, покупка целесообразнее в Вашем случае, единственное возникнет вопрос с remote-hands, но он тоже решаем.

                  Разумеется этим всем будет интересно заниматься, если речь идет о 80 Гбит / с, а не о 20-30. В таких случаях мы просто предложим аренду двух-трех 10-гигабитных серверов.

                  Кстати я не фанат «мегасерверов». Если вдруг Ваш сервер упадет — будет простой 80 Гбит / с трафика, это солидно… Как по мне более целесообразно арендовать восемь 10 Гбит / с серверов, объединить их в кластер. При этом Вы получаете и отказоустойчивость и избавляете себя от необходимости заключения каких-либо дополнительных соглашений.

                  Мне кажется более логичным такая схема, так как в случае факапа Вы теряете 1/8 своего трафика, а не весь.
                  • 0
                    мы используем схему 2+1. 3 сервера раздают по 50-60Г, если какой-то падает, то 2 раздают по 80. Так и в случае неожиданного повышения нагрузки ничего тормозить не будет и падение сервера проходит без потерь (если не под неожиданной нагрузкой, но такое сочетание бывает нечасто).

                    В целом, 80Г сервер стоит намного дешевле, чем 8*10. И место в стойке экономит и администрировать проще 1, чем 8. При том, что сервера, которые собираем мы сами, падают крайне редко (80Г за полгода еще не падали).

                    Мне подход 10 мощных и надежных серверов ближе, чем 100 средненьких. Оно и падает реже, и администрировать может один-два человека, а не толпа. Понятно, что падение 1-2 серверов стоит закладывать, и даже 3-4 с небольшим проседанием. И вот такого: habr.habrastorage.org/post_images/80f/06c/036/80f06c036f7c178f8c13c5da6892a463.png не допускать.
                    • 0
                      В таком случае подход логичный. На счет того, что не допускать «полки» — тут уже зависит от бюджета проекта и его архитектуры, к тому же «полка» — не всегда плохо, стримминг запросто создает полки, в отличии от закачки файлов, если, к примеру, не ограничена скорость буферизации. Полка может означать только то, что канал используется в полной мере, несколько снизится скорость буферизации, скажем будет у пользователей с хорошим Интернетом не 100, а 20 Мбит / с, но скорость на поток в стримминге при этом будет обеспечиваться нужные 2 Мбит / с скажем… То какой смысл ставить лимиты, дольше нагружать сторедж и оставлять впустую часть канала?

                      Что касается резерва — он должен быть, безусловно. Вот только канал нужно использовать эффективно.
      • 0
        Оказывается есть сервера с возможностью поставить 1.5Tb RAM. Спасибо за наводку DonkeyHot.
  • +1
    я: нам такие мощьные серверы не нужны и трафика думаю хватило бы пару терабайт



    вторник, 27 августа 2013 г. в 23:41, admin@ua-hosting.com.ua написал:

    Спасибо, но наше время стоит дороже, заморачиваться с подсчетом трафика нам не интересно.


    ребята, у вас отличный саппорт ))
    • 0
      Это не саппорт, саппорт находится на dedicated@ua-hosting.com.ua 24/7. По тому адресу, по которому Вы обратились — решаются вопросы продаж.

      Вы запросили размещение в Украине, что мы вообще новым клиентам не предлагаем в принципе.
      Но так как у нас осталось собственное оборудование в Укртелекоме (1 шкаф, серверы в нем, CISCO с 8 Гбит / с подключением), в котором есть несколько свободных серверов, и Ваш запрос требовал локации «только Украина» — пошли на встречу, предложив за вменяемые деньги сервер с 100 Мбит / с или гигабитным каналом на выбор:

      Intel Xeon E3-1230 / 8GB DDR3 / 2x1TB SATA2 / 100Mbps Unmetered

      Считать трафик потеребайтно в Украине и контролировать это — расход времени, наше время стоит дороже. Нам не выгодно размещать в шкаф с 8 Гбит / с подключением сервер с 100 Мбит / с подключением, но это тот минимум, на который мы готовы пойти, так как все равно сервер стоит и только воздух греет, нам не жаль, а предлагать услуги там новым клиентам нам не позволяют религиозные убеждения. Только в крайнем случае и если очень просят — идем на встречу, сразу предупреждая, что в Украине качество услуг на довольно скверном уровне в сравнении с Нидерландами и есть риски изъятия оборудования, так как честный бизнес в Украине постоянно под прессом.

      Если Вам надо еще дешевле и проще — Вам было предложено пойти в ДЦ «Воля» и арендовать сервер у них напрямую. Даже порекомендовали, где можно купить то, что нужно Вам.

      Вам правильно все ответили, для нас деньги не главное, главное время, которое расходуется на обслуживание клиента. Его не купить ни за какие деньги, оно стоит дороже, тем не менее мы всегда идем на встречу и находим оптимальный вариант, для Вас он — арендовать сервер в Дата Центре «Воля» самостоятельно, если текущее предложение в Укртелекоме не устраивает :)
  • 0
    а вопросы продаж разве решает не саппорт?
    support это поддержка — помощь
    не хотите заморачиваться, дело ваше
    • 0
      Вопросы продаж решаются менеджерами. В принципе Вы правы, в каком-то смысле это тоже саппорт, но в основном саппортом принято считать тех. специалистов — инженеров и сотрудников технической службы поддержки, а продажники — это менеджеры :)
  • 0
    10Gb сервакам не хватает 12x3Tb дисков
    • 0
      Не хватает, если бы Вы почитали статью, то поняли, что нужно использовать SSD / RAM для кеша. И вообще SATA по возможности лучше не использовать.
      • 0
        Хотелось бы иметь производительную файлопомойку с zfs к примеру, а к 30 терабайтам полезной емкости добавить уже 512гиговый ssd для кэша.
        • 0
          На 30 ТБ полезной емкости 512 ГБ SSD — маловато будет.

          Тем не мене можно сделать что-то вроде этого:

          2 x Intel Hexa-Core Xeon E5-2420 / 128GB DDR3 / 10x3TB SATA2 + 2х480GB SSD / 10Gbps Unmetered — 3099+285+160+200 = $3744 / месяц

          Либо даже 2 таких сервера взять, в зависимости от нужного Вам трафика.
      • 0
        Когда на одну машинку приходится 30-60ТБ файлов с почти равномерным доступом к ним — какой кеш не ставь, толку мало :)
        • 0
          На одну машинку 30-60 ТБ файлов у нас физически не получится разместить. Платформа на 12 дисков. В таком случае есть смысл арендовать несколько серверов и подключить общим каналом.
          • 0
            У нас таких машин на 30-60Т много. Это просто к тому, что иногда никакие кеши не подходят :(
      • 0
        Я вот думаю: а если все файлы на дисках не фрагментированы (как делает ВКонтакте) для уменьшения числа перемещений головок и используется RAID, который оптимизирует последовательность перемещения головок, то, наверное, хватит. У них же хватает.
        • 0
          Если честно, то у Вконтакте не всегда хватает. Иногда их видео жутко тупит и причина не только в паршивых зарубежных каналах :)

          Мы скоро начнем предлагать SSD-диски объема не только 480 ГБ, но и 960 ГБ и у многих в этом случае необходимость в SATA все же отпадет.

          SATA — прошлый век, если их использовать, какой бы не был хорошо продуманный кеш — будут иногда глюки. Учитывая стоимость терабайтных SSD сейчас и развитие технологий, о SATA вскоре забудут. Будущее за SSD.
          • 0
            это, кстати, не так однозначно насчёт 960 Гб дисков. Надо понимать, что канал у SSD большой, но ограниченный и когда его начинает делить в два раза больше контента, то SSD заканчивается быстрее.

            Иногда лучше воткнуть два маленьких SSD, чем один большой.
            • 0
              erlyvideo, чиатйте внимательно, проблема не в нехватке канала, а в нехватке дискового пространства из-за чего приходится нередко применять SATA и настраивать хитроумные кеши. У многих с 500 ГБ контента может быть меньше гигабита трафика, в таком случае для них предпочтительны SSD большего объема, 960 ГБ многим в самый раз. Потому что получить больше 10 ТБ SSD-пространства на одном сервере — это уже не мало.
  • 0
    Посмотрел сервера. Почему до $100 максимум 8GB RAM. Есть что-то лучше?

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое Разное