Pull to refresh
76
0
Александр Зейников @alexzeynikov

Пользователь

Send message
К сожалению, трех- и четырех- буквенные фирмы сами не делают ни RAID-контроллеров, ни процессоров, ни памяти, ни жестких дисков. Они работают практически также как и компании, интегрирующие компоненты на основе продуктов SuperMicro, Intel, ASUS (в основном). Только платить конечнику приходится еще и за бренд и за офис в Moscow city.
Но это лирическое отступление. В упомянутой статье мы рассказывали про технологию, которая есть у 9 из 10 крупнейших мировых производителей серверов. Так что покупатель волен выбрать откуда получить эту технологию, у А-бренда или у LSI напрямую. А протестировать вы можете сами на примере любимого софта СУБД и своей родной базы данных :) С удовольствием напишем и о ваших успехах.
На мой взгляд SSD здесь не нужен вовсе. Проблемы с файлом подачки решаются всё-таки его отсутствием (увеличьте память если можно).
Kingston OEMил Intel x25E, один из лучших SLC своего времени, насколько я помню. Очень странно слышать такие заявления, вы первый кто встречался с подобными проблемами из моих коллег.
Для SLC главные задачи это СУБД, Web, то есть приложения где много IOPs-ориентированных операций. В вашем случае это бессмысленная трата денег, на мой взгляд. Если только скорость загрузки ОС для вас не критична.
А кто производитель ваших горе-SSD?
Прежде какого времени кончились SSD? Бэкапы нужны вообще всегда и к надежности SSD никакого отношения не имеют. Что надежней, HDD или SSD? Правильный ответ выражается в цифрах MTBF для конкретных моделей HDD и SSD.
Точно не стоит.
Можно бы найти информацию по тому, как это реализуется в физике, но будет очень скучно. Я закончил кафедру технологий производства радиоэлектронного оборудования и помню из курса физических основ микроэлектроники как там все сложно… Затворы-стоки-истоки-легирование… Это все же для ИТшников статья, а не для профессионалов в области микроэлектроники.
Точно, Поиск это 8088. Но там тоже была такая микросхемка вроде. А вторая торговая марка была по-моему Кворум, что-ли… А кто знает про теневое ПЗУ с поддержкой 5.25'' флоппи-дисков для Спектрумов? Удивительное техническое решение.
Спасибо за дополнение. По битикам когда распишешь, гораздо понятней становится. BTW, TLC — жесткая экзотика и подкласс MLC
В случае CacheCade в группе может быть до 32, если мне не изменяет память, SSD.
У меня в профиле все написано. Давайте в личку.
Как работает внутри карточек и с точки зрения софта, я как раз могу прояснить, а вот как в Мега-ЦОД — это обрывочные сведения. По поводу ИОТурбины. У нас есть функциональный аналог, называется Nytro XD. Это ПО для кэширования + одна или несколько PCIe-SSD WarpDrive. То же самое и ioTurbine. Только у FIO архитектурно совсем другая карточка. Там нет ни FSP, ни HBA-чипа. Они всем, в т.ч. раскладкой, Wear Leveling'ом, управляют из драйвера внутри ОС сервера. Это мягко говоря спорное решение. При неожиданной перезагрузке данные кораптятся. Ну и памяти и CPU time от сервера кушается много из-за этого. У нас большая часть этих вещей реализована аппаратно в FSP SandForce. А софт перехватывает доступ к блочным устройствам на уровне драйвера и занимается кэшированием на имеющиеся у него SSD, проходящих через него данных. Что у нас, что у FIO.
Обрывочные сведения — это то что я и мои коллеги узнают во время встреч с архитекторами этих ДЦ. Нам обычно не делают презентаций как и что работает :)))
Пока это возможно только в Штатах… Нахи технари-разработчики все там. Мы все-таки в ж*** мира живем по меркам ИТ.
Потому что это достаточно обрывочные сведения, передающиеся из уст в уста. И они очень быстро устаревают. Это же передний край технологий, как все мы помним… Как обстоят дела с железом в каждом конкретном Мега-ЦОД досконально может сказать только архитектор этого Мега-ЦОД.
Интересно, что вы подняли эту тему. На сомом деле мы только что выпустили решение для кластеризации на DAS. Оно называется Syncro CS, подробнее здесь: www.lsi.com/channel/products/storagecomponents/Pages/Syncro.aspx и здесь: www.thesmarterwaytoon.com/
Ну и позволю не согласиться, назначение у всех СХД одинаковое. Просто решения разные и у всех есть достоинства и недостатки. Основным критерием для Мега-ЦОДов являются масштабируемость как по производительности, так и по емкости, до таких значений, которых не может достичь ни одна СХД Enterprise-класса, и цена. Цена за гигабайт и цена за MB/s и IOPs. Здесь DAS не имеет альтернатив.
Facebook использует ВСЁ, что есть в мире. В том числе PCI-e SSD от Fusion IO (предыдущее поколение кэширующих серверов) и LSI WarpDrive (текущее поколение, возможно будущее). Пока PCI SSD имеют достаточно высокую цену от $4 до $10 за гигабайт, поэтому не применется повсеместно. Еще одна область применения PCIe-SSD частично озвучена в статье — низкая латентность. То есть это не когда у вас 200000 запросов в секунду, а, например всего лишь сотни-тысячи, но нужен мгновенный ответ (нет времени ждать, пока будет доставлена информация с HDD). Например, при показе интерфейса странички соцсети. Данные можно подгрузить чуть попозже, а вот заголовок, элементы управления, и первые несколько событий из ленты нужны сразу. Эти данные заранее подготавливаются для всех пользователей с использованием, например, hadoop и записываются на PCI-eSSD.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity