Интерфейс SAS: история, примеры организации хранения

    В прошлый раз мы с вами рассмотрели все, что касается технологии SCSI в историческом контексте: кем она была изобретена, как развивалась, какие у нее есть разновидности и так далее. Закончили мы на том, что наиболее современным и актуальным стандартом является Serial Attached SCSI, он появился относительно недавно, но получил быстрое развитие. Первую реализацию «в кремнии» показала компания LSI в январе 2004 года, а в ноябре того же года SAS вошел в топ самых популярных запросов сайта storagesearch.com.

    Начнем с основ. Как же работают устройства на технологи SCSI? В стандарте SCSI все построено на концепции клиент/сервер.

    Клиент, называемый инициатором (англ. initiator), отправляет разные команды и дожидается их результатов. Чаще всего, разумеется, в роли клиента выступает SAS контроллер. Сегодня SAS контроллеры — это HBA и RAID-контроллеры, а также контроллеры СХД, стоящие внутри внешних систем хранения данных.

    Сервер называется целевым устройством (англ. target), его задача — принять запрос инициатора, обработать его и вернуть данные или подтверждение выполнения команды обратно. В роли целевого устройства может выступать и отдельный диск, и целый дисковый массив. В этом случае SAS HBA внутри дискового массива (так называемая внешняя система хранения данных), предназначенный для подключения к нему серверов, работает в режиме Target. Каждому целевому устройству (“таргету”) присваивается отдельный идентификатор SCSI Target ID.

    Для связи клиентов с сервером используется подсистема доставки данных (англ. Service Delivery Subsystem), в большинстве случаев, это хитрое название скрывает за собой просто кабели. Кабели бывают как для внешних подключений, так и для подключений внутри серверов. Кабели меняются от поколения к поколению SAS. На сегодня имеется три поколения SAS:

    — SAS-1 или 3Gbit SAS
    — SAS-2 или 6Gbit SAS
    — SAS-3 или 12 Gbit SAS – готовится к выходу в середине 2013 года




    Внутренние и внешние кабели SAS

    Иногда в состав этой подсистемы могут входить расширители или экспандеры SAS. Под экспандерами (англ. Expanders, расширители, но в русском языке прижилось слово «экспандер») понимают устройства, помогающие доставке информации от инициаторов к целям и обратно, но прозрачные для целевых устройств. Одним из самых типичных примеров является экспандер, позволяющий подключить несколько целевых устройств к одному порту инициатора, например, микросхема экспандера в дисковой полке или на бэкплейне сервера. Благодаря такой организации, серверы могут иметь более 8 дисков (контроллеры, которые сегодня используются ведущими производителями серверов, обычно 8-портовые), а дисковые полки – любое необходимое количество.

    Инициатор, соединенный с целевым устройством системой доставки данных, называют доменом. Любое SCSI устройство содержит как минимум один порт, который может быть портом инициатора, целевого устройства или совмещать обе функции. Портам могут присваиваться идентификаторы (PID).

    Целевые устройства состоят из как минимум одного логического номера устройства (Logical Unit Number или LUN). Именно LUN и идентифицирует с каким из дисков или разделов данного целевого устройства будет работать инициатор. Иногда говорят, что target предоставляет инициатору LUN. Таким образом, для полной адресации к нужному хранилищу используется пара SCSI Target ID + LUN.

    Как в известном анекдоте («Я не даю в долг, а Первый Национальный Банк не торгует семечками») — целевое устройство обычно не выступает в роли «посылающего команды», а инициатор — не предоставляет LUN. Хотя стоит отметить, что стандарт допускает тот факт, что одно устройство может быть одновременно и инициатором и целью, но на практике это используют мало.

    Для «общения» устройств в SAS существует протокол, по «доброй традиции» и по рекомендации OSI, разделенный на несколько слоев (сверху вниз): Application, Transport, Link, PHY, Architecture и Physical.

    SAS включает в себя три транспортных протокола. Serial SCSI Protocol (SSP) — используется для работы со SCSI устройствами. Serial ATA Tunneling Protocol (STP) — для взаимодействия с дисками SATA. Serial Management Protocol (SMP) — для управления SAS-фабрикой. Благодаря STP мы можем подключать диски SATA к контроллерам SAS. Благодаря SMP мы можем строить большие (до 1000 дисковых/SSD-устройств в одном домене) системы, а также использовать зонирование SAS (подробнее об этом в статье про SAS-коммутатор).

    Уровень связей служит для управления соединениями и передачи фреймов. Уровень PHY — используется для таких вещей как установка скорости соединения и кодировки. На архитектурном уровне находятся вопросы расширителей и топологии. Физический уровень определяет напряжение, форму сигналов соединения и т.д.

    Все взаимодействие в SCSI строится на основании команд, которые инициатор посылает целевому устройству и ожидает их результата. Команды эти посылаются в виде блоков описания команды (Command Description Block или CDB). Блок состоит из одного байта кода команды и ее параметров. Первым параметром почти всегда выступает LUN. CDB может иметь длину от 6 до 32 байт, хотя последние версии SCSI допускают CDB переменной длины.

    После получения команды целевое устройство возвращает код подтверждения. 00h означает что команда принята успешно, 02h обозначает ошибку, 08h — занятое устройство.

    Команды делятся на 4 большие категории. N, от английского «non-data», предназначены для операций, не относящихся к непосредственно обмену данными. W, от «write» — запись данных, полученных целевым устройством от инициатора. R, как не сложно догадаться от слова «read» используется для чтения. Наконец В — для двустороннего обмена данными.

    Команд SCSI существует достаточно много, поэтому перечислим только наиболее часто используемые.

    Test unit ready (00h) — проверить, готово ли устройство, есть ли в нем диск (если это ленточный накопитель), раскрутился ли диск и так далее. Стоит отметить, что в данном случае устройство не производит полной самодиагностики, для этого существуют другие команды.
    Inquiry (12h) — получить основные характеристики устройства и его параметры
    Send diagnostic (1Dh) — произвести самодиагностику устройства — результаты этой команды возвращаются после диагностики командой Receive Diagnostic Results (1Ch)
    Request sense (03h) — команда позволяет получить статус выполнения предыдущей команды — результатом этой команды может стать как сообщение типа «нет ошибки», так и разные сбои, начиная с отсутствия диска в накопителе и заканчивая серьезными проблемами.
    Read capacity (25h) — позволяет узнать объем целевого устройства
    Format Unit (04h) — служит для деструктивного форматирования целевого устройства и подготовки его к хранению данных.
    Read (4 варианта) — чтение данных; существует в виде 4 разных команд, отличающихся длиной CDB
    Write (4 варианта) — запись. Так же как и для чтения в 4 вариантах
    Write and verify (3 варианта) — запись данных и проверка
    Mode select (2 варианта) — установка различных параметров устройства
    Mode sense (2 варианта) — возвращает текущие параметры устройства

    А теперь рассмотрим несколько типичных примеров организации хранения данных на SAS.

    Пример первый, сервер хранения данных.

    Что это такое и с чем его едят? Большие компании типа Amazon, Youtube, Facebook, Mail.ru и Yandex используют сервера этого типа для того, чтобы хранить контент. Под контентом понимается видео, аудио информация, картинки, результаты индексирования и обработки информации (например, так популярный в последнее время в США, Hadoop), почта, и.т.д. Для понимания задачи и грамотного выбора оборудования под нее нужно дополнительно знать несколько вводных, без которых никак нельзя. Первое и самое главное – чем больше дисков – тем лучше.



    Дата-центр одной из российских Web 2.0-компаний

    Процессоры и память в таких серверах задействуются не сильно. Второе – в мире Web 2.0, информация хранится географически распределено, несколько копий на различных серверах. Хранится 2-3 копии информации. Иногда, если она запрашивается часто, хранят больше копий для балансировки нагрузки. Ну и третье, исходя из первого и второго, чем дешевле – тем лучше. В большинстве случаев все вышесказанное приводит к тому, что используются Nearline SAS или SATA диски высокой емкости. Как правило, Enterprise-уровня. Это значит, что такие диски предназначены для работы 24x7 и стоят значительно дороже своих собратьев, использующихся в настольных PC. Корпус обычно выбирают такой, куда можно вставить побольше дисков. Если это 3.5’’, то 12 дисков в 2U.



    Типичный 2U-сервер хранения данных

    Или 24 x 2.5’’ в 2U. Или другие варианты в 3U, 4U и.т.д. Теперь, имея корпус, количество дисков и их тип, мы должны выбрать тип подключения. Вообще-то выбор не очень большой. А сводится он к использованию экспандерного или безэкспандерного бэкплейна. Если мы используем экспандерный бекплейн, то контроллер SAS может быть 8-портовым. Если безэкспандерный – то количество портов контроллера SAS должно равняться или превышать количество дисков. Ну и последнее, выбор контроллера. Мы знаем количество портов, 8, 16, 24, например и выбираем контроллер исходя из этих условий. Контроллеры бывают 2х типов, RAID- и HBA. Отличаются они тем, что RAID-контроллеры поддерживают уровни RAID 5,6,50,60 и имеют достаточно большой объем памяти (512MB-2ГБ сегодня) для кэширования. У HBA памяти или cовсем нет, или ее очень мало. Кроме этого, HBA либо не умеют делать RAID вообще, либо умеют олько простые, не требующие большого объема вычислений уровни. RAID 0/1/1E/10 – типичный набор для HBA. Здесь нам нужен HBA, они стоят значительно дешевле, так защита данных нам не нужна совсем и мы стремимся к минимизации стоимости сервера.



    16-портовый SAS HBA

    Пример второй, почтовый сервер Exchange. А также MDaemon, Notes и другие подобные сервера.

    Здесь все не так очевидно, как в первом примере. В зависимости от того, сколько пользователей должен обслуживать сервер, рекомендации будут различными. В любом случае, мы знаем что базу данных Exchange (так называемую БД Jet) лучше всего хранить на RAID 5/6 и она неплохо кэшируется с использованием SSD. В зависимости от количества пользователей определяем необходимые объемы хранения «сегодня» и «на вырост». Помним, что сервер живет 3-5 лет. Поэтому «на вырост» можно ограничить 5-летней перспективой. Потом будет дешевле полностью поменять сервер. В зависимости от объема дисков выберем корпус. С бэкплейном проще, рекомендуется использовать экспандеры, так как требования по цене не такие жесткие, как в предыдущем случае, и в общем случае, удорожание сервера на $50-$100, а иногда и больше, мы вполне переживем в угоду надежности и функциональности. Диски выберем SAS или NL-SAS/Enterprise SATA в зависимости от объемов. Далее, защита данных и кэширование. Выберем современный 4/8-портовый контроллер, поддерживающий RAID 5/6/50/60 и кэширование на SSD. Для LSI, это любой MegaRAID кроме 9240 с функцией кэширования CacheCade 2.0, или Nytro MegaRAID с SSD «на борту». Для Adaptec, это контроллеры, поддерживающие MAX IQ. Для кэширования в обоих случаях (кроме Nytro MegaRAID) нужно будет взять пару SSD на e-MLC-технологии Enterprise-класса. Такие есть у Intel, Seagate, Toshiba, и.т.д. Цены и компании – на выбор. Если вы не порч доплатить за бренд, то в линейках серверов IBM, Dell, HP, найдите подобные продукты и вперед!



    SSD- кэширующий RAID-контроллер Nytro MegaRAID

    Пример третий, внешняя система хранения данных своими руками.

    Итак, самое серьезное знание SAS, конечно же, требуется тем, кто производит системы хранения данных или хочет их сделать своими руками. Мы остановимся на достаточно простой СХД, программное обеспечение для которой производится компанией Open-E. Конечно же, можно делать СХД и на Windows Storage Server, и на Nexenta, и на AVRORAID, и на Open NAS, и на любом другом подходящем для этих целей софте. Я просто обозначил основные направления, а дальше вам помогут сайты производителей. Итак, если это внешняя система, то мы почти никогда не знаем, сколько же дисков потребуется конечному пользователю. Мы должны быть гибкими. Для этого есть так называемые JBOD – внешние полки для дисков. В их состав входит один или два экспандера, каждый из которых имеет вход (4-х портовый разъем SAS), выход на следующий экспандер, остальные порты разведены на разъемы, предназначенные для подключения дисков. Причем, в двухэкспандерных системах первый порт диска разведен на первый экспандер, второй порт – на второй экспандер. Это позволяет строить отказоустойчивые цепочки JBOD-ов. Головной сервер может иметь внутренние диски в своем составе, либо не иметь их совсем. В этом случае используются «внешние» контроллеры SAS. То есть контроллеры с портами «наружу». Выбор между SAS RAID-контроллером или SAS HBA зависит от управляющего ПО, которое вы выбираете. В случае Open-E, это RAID-контроллер. Можно позаботиться и об опции кэширования на SSD. Если ваша СХД будет иметь очень много дисков, то решение Daisy Chain (когда каждый последующий JBOD подключается к предыдущему, либо к головному серверу) в силу многих причин не подходит. В этом случае головной сервер либо оснащается несколькими контроллерами, либо используется устройство, которое называется SAS-коммутатор. Он позволяет подключать один или несколько серверов к одному или нескольким JBOD. Подробнее SAS-коммутаторы мы разберем в следующих статьях. Для внешних систем хранения данных настоятельно рекомендуется использовать диски только SAS (в том числе NearLine) в силу повышенных требований к отказоустойчивости. Дело в том, что протокол SAS имеет в своем составе гораздо больше функций, чем SATA. Например, контроль записываемых-считываемых данных на всем пути с помощью проверочных сумм (T.10 End-to-End protection). А путь, как мы уже знаем, бывает очень длинным.



    Многодисковый JBOD

    Напоследок, хочется поделиться некоторыми сведениями о текущей адаптации SAS мировыми производителями оборудования. SAS сегодня – это стандарт де-факто для серверных систем и профессиональных рабочих станций. Серверные системы подавляющего большинства как A- так и B- брендов имеют в составе контроллеры SAS, как HBA, так и RAID. В области внешних систем хранения данных, основные производители оборудования (HP, EMC, NetApp, IBM) уже несколько лет как перевели внутренние архитектуры своих систем на SAS. Таким образом, диски Fibre Channel стали за последние пару лет настоящей экзотикой. Fibre Channel продолжает жить и развиваться, в основном, как способ подключения серверов к системам хранения данных, хотя в области Low-End, Mid-Range и профессиональных систем, SAS отвоевывает все большую долю.

    На этом наш экскурс в мир истории и теории SCSI вообще и SAS в частности подошел к концу, и в следующий раз я расскажу вам более подробно о применении SAS в реальной жизни.
    Метки:
    Поделиться публикацией
    Комментарии 47
    • +3
      Спасибо, познавательно, жду продолжения.
      • +5
        В последнее время стали появляться полки высокой плотности, например 60 дисков в 4U от IBM (EXP5060):
        image
        а некоторые компании планируют ещё больше дисков напихать. Компаниям, которые такое железо будут использовать, понадобятся очень сильные инженеры :)
        • 0
          Сколько ж туда 2.5" влезет, жуть…
          • 0
            А смысл 2.5 пихать в таких количествах? Зато если набивать 4ТБ 3.5" дисками — то 240ТБ всего в 5U стойки, 4U полка + 1U сервер, а это очень даже экономное расходование свободного места.
            • 0
              Backblaze пока выгоднее по цене и наличию «сервера» уже в хранилище. Кстати если у них брать только корпус, то 1 контроллер и пара экспандеров делают вариант дешевого DAS.
              • 0
                Я знаю про Backblaze, правда руками не щупал, они уже несколько лет продают свои железки. Из минусов, которые сразу вижу: совсем дохлые материнки. 32 гига памяти на такие объёмы это мало, только если видео хранить. Есть ли в природе miniATX матери с поддержкой большего объёма памяти и аналогами iLo? Не очень понятно, как решена проблема с кабелями при выдвигании на рельсах (они на некоторых картинках встречаются), и вроде бы нету лампочек идентификации дисков. Не очень понятен вопрос горячей замены дисков.

                В общем, самопал — это не всегда хорошо, зачастую лучше доплатить и взять брендовую железяку.
                • 0
                  Можно брать только корпус, остальное свое.
                  Хотя корпуса есть где и подешевле взять, а если делать их самому, то 1 в 1 точно такие же выходят в 21 тыс (если не мелочится)
                  • 0
                    Так там внутри место под материнку только под miniATX или больше?
                    • 0
                      bitblaze.ru/8-storage-systems-bitblaze.html — вот в РФ ребята, которые под ключ делают решение.

                      Я на продажу корпуса не делал, но фактически тоже самое. Мать полноразмерная влезает (нужно минимум 3 pci-e)
              • 0
                Хм, взял я сейчас 2.5" и 3.5" диски в руки, покрутил, да нет смысла. Даже если на место одного 3.5" диска встанет 4 2.5«1ТБ, то объем останется тот же, но им еще жарче будет.
                • 0
                  Не забывайте про IOPS. У четырех 2.5'' дисков IOPS будет в 4 раза больше чем у одного 3.5''.
                  • 0
                    Тут смысл несколько иной.
                    Например, возьмем диски 3.5" и 2.5" 1ТБ SATA и 600GB SAS.
                    Диски 2.5" будут дороже по цене, но менее энергопотребляющими и меньшими по размеру.
                    Если надо набрать просто дисковое пространство, то выгоднее брать 3.5".
                    А вот если нужна производительность, то лучше взять как можно больше дисков 2.5" самого малого объема.
              • +1
                image
                Чуть меньше дисков при том же объеме (4Tb диски работают без проблем)
                • 0
                  Только это очень ненадежное решение, отказы будут происходить достаточно часто (из-за использования дешевых десктопных комплектующих) и хотсвапа нет — неудобно. И по плотности не превышает вот это: www.supermicro.ru/products_spec_1064.html, если там 5U.
                  • 0
                    Хотсвап есть, мультипликаторы позволяют.
                    ZFS работает хорошо :) особенно при кэше на ssd

                    У супермикро там 36 дисков всего :(
                    • 0
                      Ну такой сервер из стойки надо выкручивать, чтобы диск заменить, это не хотсвап. Был бы хоть на рейках и выезжал так, чтобы диски можно было просто достать… Хотя, если высоко стоит, диски менять все равно очень неудобно.

                      36 дисков в супермикро на 4U, а тут сколько? В прочем, есть и 4U решение на 45 дисков, но без сервера(

                      Сколько такой корпус стоит вместе с экспандерами?
                      • 0
                        Такой корпус просто достается до уровня вентиляторов после дисков из стойки на салазках и «развлекайся» сколько влезет. Все на лету меняется без проблем.
                        • 0
                          Тем не менее, надежность и удобство такой конструкции крайне низкое, оправдано может быть только в случае, если сервер в сборе с 4ТБ винтами получается существенно дешевле того-же supermicro или аналогов.
                          • 0
                            Вы думаете что супермикро сильно прочнее?
                            • 0
                              Тут дело не только в прочности. Во-первых, там несколько иной механизм вставки винтов, надо постараться, чтобы вставить его неправильно, повредив бекплейн.

                              Во-вторых, sil контроллеры и десктопные комплектующие работают намного хуже серверных решений. Сейчам мы потихоньку переходим от корпусов, подобных тому, что на картинке выше на супермикро, количество отказов уменьшилось в разы (хотя поменяли только половину). За полгода по супермикровскому железу ниодного отказа, а из обычных серверов минимум 1-2 раза в неделю кто-то да упадет.

                              К слову, замена sil на адаптек несколько улучшило ситуацию. sil просто уносит только дай на него нагрузку. Однако, даже с дорогими lsi контроллерами такие вот полусамопальные решения на десктопном железе работает хреновенько.

                              А еще у Супермикро есть лампочки на всех винтах, не нужно догадываться, какой винт нужно поменять (можно, конечно, наклеечки лепить, но это как раз решение в духе красного корпуса;) Это уже не говоря о встроенном ipmi и дублированном питании.
                              • 0
                                Ни кто не говорит про самопальные решения: берите железо нормальное. Корзины готовые с экспандерами взять даже можно на 4/5 дисков. Правда там по высоте впритык выходит совсем.
                                • 0
                                  Засунуть десктоп в сервер, да еще на китайских sil — это то, что я называю самопальным решением. Пусть даже его делали на каком-то производстве. Тут не гарантируется ни нормальное охлаждение, ни отсуствие вибраций винтов, ни скорость доступа, ни надежность (куча явных точек отказа: sil, один БП, обычная память, непонятная проводка). Каждый их тех пунктов, что я перечислил выше, приносил и приносит нам немалый геморрой уже при нескольких десятках серверов, что постоянно под нагрузкой.
                                  С парой сотен таких серверов, наверное, придется огранизовать в ДЦ круглосуточное дежурство, чтобы поднимать все это добро постоянно.
                                  • 0
                                    вы про десктопы пишете так, что мне за свой (круглосуточно работающий) реально страшно.
                                    • –1
                                      Вы не путайте режимы работы десктопа и сервера, который постоянно под нагрузкой, активно читает и пишет с винтов и общается по сети со скоростью несколько гигабит или даже несколько десятков гигабит. У сервера, малейшая ошибка в работе железа может всплыть практически сразу. На десктопе к сбойному участку памяти обращений может не быть месяцами, да и ошибка ввода-вывода приведет к незаметному замедлению работы, а не тому, что скопится огромная очередь запросов.
                                  • 0
                                    Кстати, если мало 36 дисков, вот решение для 72 дисков в 4U www.supermicro.nl/products/system/4U/6047/SSG-6047R-E1R72L.cfm и с сервером сразу.
                                    • 0
                                      да хоть 100 дисков, контроллер то один, плата одна, т.е. точек отказа — полно. Это решение для файловой помойки с незначительной информацией.
                                      • 0
                                        Ну чего один. Даже в 36 дисковых серверах 2 экспандера, тут 3. Можно поставить 3 контроллера, если надо. Не уверен насчет этого решения, но в других корпусках такого плана, есть возможность подключить резервный mini-sas линк для каждого экспандера (т.е. чтобы все вырубилось, нужно чтобы 2 контроллера умерло сразу).

                                        В прочем, столкнуться с тем, чтобы контроллер или экспандер сгорел во время эксплуатации это что-то из области фантастики (такое бывает, конечно. но очень редко). В таких серверах точка отказа, это инженер, что может сноги диск заграть в слот и потом придется разъем перепаивать на сервисе.

                                        Но вообще, конечно, не стоит надеяться на один сервер. Надежность сохранения тут невысокая, его могут как минимум уронить, вынимая из стойки или питание может пропасть и к данным не будет доступа. Резервирование никто не отменял. Вопрос в стоимости и обслуживания этого всего дела. В самопальных серверах очень большая вероятность закрепить винты так, что они умрут от вибраций через месяц. Особенно, в таком как показан выше, там вообще неясно, как они прикручиваются.

                                        По опыту, в самопальных корпусах (фабличных, но не настоящих серверных, типа как выше), 1% винтов приходится менять раз в месяц (т.е. из 100 винтов один вылетает минимум), в серверах несколько сотен винтов у меня живут уже месяцев 8, у серверов аптайм такой-же и ничего пока не вылетело, хотя винты используем одинаковые.
                                        • 0
                                          Варианты есть при должном желании:
                                          www.supermicro.com/products/nfo/sbb.cfm — старая сббха на 3.5. имеет свои капризы, но работает.
                                          www.supermicro.com/products/system/2U/2026/SSG-2026T-DE2R24L.cfm — новая сббха под 2.5 для решений кластер в коробке.
                                          У обоих имеются SAS порты расширения для подвешивание JBOD или более интеллектуальных девайсов типа Engenio(хоть Engenio и поумнее этой башки будет).
                                          Для инфраструктурных обеспечений SAS фабрик существую такие забавные штукенции: www.lsi.com/channel/russia/products/storagecomponents/Pages/LSISAS6160Switch.aspx
                      • 0
                        При таком размещении дисков на контактную площадку с бОльшей силой давит достаточно увесистый модуль диска. Поэтому на печатной плате появляются микротрещины и надежность бэкплейна падает.
                        • 0
                          Лучше не бэкплейн, а экспандер брать, правда тогда коннекторы диска удобнее оставлять сверху.
                          • 0
                            Ни что не мешает, кстати, ограничители ставить для дисков.
                        • 0
                          Спасибо, я не нашел эту картинку. Это Engenio, бывший LSI. Полка называется Wembley. Сзади поддерживает стандарт SBB2. Теперь NetApp. на 2.5'' планировали 100 дисков в 4U, пока не продали. Такие от LSI стоят в суперкомпьютере МГУ Ломоносов, #13 на момент строительства.
                        • +2
                          Интересно, жду продолжения. Уже давно с таким интересом не читал статей на хабре.
                          • +2
                            Насколько оправданы 2.5 диски в таких системах хранения?
                            • 0
                              Только если 2.5 это ssd для кэширования. Если просто для хранения, то совсем не оправдано.
                              • 0
                                Соотношение цена/объем для пока 2.5'' хуже. Вопрос в том, насколько вам важна плотность в стойке?
                                • 0
                                  Оправданы. Но смотря для чего. Для дисков 3.5" уже доступны диски в 4TB, например.
                                  А для «оперативных», а не «емкостных» применений, конечно 2,5" выгоднее, они и применяются.
                                • 0
                                  Каждому целевому устройству (“таргету”) присваивается отдельный идентификатор SCSI Target ID.
                                  Уточните, пожалуйста, WWN или «SCSI target ID»?
                                  • 0
                                    WWN — более широкое понятие и фактически является аналогом мак адреса в FC.
                                    SCSI target ID — абсолютно тоже самое, но с одной поправкой — SAS.
                                    Небольшая цитатка:
                                    "… In SAS, both SCSI port identifiers and SCSI device names take the form of a SAS address, which is a 64 bit value, normally in the NAA IEEE Registered format. People sometimes call a SAS address a World Wide Name or WWN, because it is essentially the same thing as a WWN in Fibre Channel. ..."
                                    • 0
                                      Стоп, так это всё-таки число? Я считал, что устройства друг друга по WWN идентифицируют, а WWN содержит строку.
                                      • 0
                                        Это UID, 64-битное число. Чаще всего его записывают в HEX-формате.
                                  • 0
                                    Очень интересно, особенно в свете моей задачи: собственный корпус на 48 винтов 3,5" форм-фактора

                                    Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.