Обзор и тест СХД Fujitsu ETERNUS DX 100 S3



    Сегодня мы расскажем о масштабируемой системе хранения данных начального уровня DX 100 S3 компании Fujitsu. Причем акцент на масштабируемость и унификацию делается неспроста. Дело в том, что данная система может расширяться до старших моделей путем простой замены контроллерных блоков и имеет возможность предоставлять как блочный (через Fibre Channel, FCoE, iSCSI, SAS и InfiniBand), так и файловый доступ к данным (NFS), причем без каких бы то ни было дополнительных устройств (файлеров). Хотя нужно отметить, что есть возможность сэкономить: если файловый доступ не требуется, можно приобрести версию, в заводской комплектации которой в контроллерном блоке будет отсутствовать плата, отвечающая за файловый доступ.

    Данная система принадлежит к обновленной линейке ETERNUS S3, получившей интерфейс SAS3 (12 Gbit SAS), что вдвое увеличило ее пропускную способность. А ОС VxWorks (разработанная компанией Wind River Systems), на которой работает СХД, является многопоточной 64-разрядной операционной системой реального времени, обеспечивающей высокую производительность и безопасность. Подобная операционная система применяется в космической программе NASA, в частности, под ее управлением осуществлялась посадка аппарата Curiosity на поверхность Марса.

    Основные функции и преимущества СХД ETERNUS DX 100 S3:
    • Резерв производительности и емкости, обеспечивающий объединение данных для виртуализации серверов, электронной почты, баз данных и коммерческих приложений в одной системе
    • Поддержка высоких темпов роста объема данных при низких затратах и защита капиталовложений благодаря высокой степени расширяемости в пределах системы и возможности перехода к более мощным системам
    • Включенный в стоимость пакет ПО ETERNUS SF Express Management с широким набором функций
    • Гибкость аварийного восстановления
    • Встроенные интеллектуальные функции формирования моментальных снимков для резервного копирования
    • Удобная и экономичная эксплуатация с минимальными затратами усилий на администрирование
    • Применение унифицированной системы доступа к дисковым накопителям SAN и NAS, способствующей быстрой окупаемости
    • Снижение затрат на эксплуатацию за счет унификации функций управления во всех системах данного семейства
    • Поддерживается широкий диапазон и различные комбинации типов сетей, а также прямое подключение к серверу
    • Поддержка различных сочетаний дисков размеров 2,5 и 3,5 дюйма


    Технические характеристики:
    • Интерфейсы – Fibre Channel (до 16 Гбит/с), FCoE (10 Гбит/с), iSCSI (10/1 Гбит/с), SAS (12/6/3 Гбит/с), CIFS, NFS
    • Дисковые устройства (максимально) – 144 x SSD, SAS и Nearline SAS в смешанных конфигурациях (3,5 дюйма/2,5 дюйма)
    • Вместимость (максимально) – 576 TB
    • Кол-во хост-интерфейсов – 4
    • Кол-во подключаемых хост-портов – макс. 1024
    • Уровень RAID – 0, 1, 1+0, 5, 5+0, 6


    Конфигурация тестируемой системы:
    • СХД Fujitsu ETERNUS DX 100S3 с блочным доступом, коммутация по каналу FC 8 Gbit.
    • 10 дисков SAS 900 GB/10K rpm – RAID 10
    • Сервер Fujitsu PRIMERGY RX200 S8, Intel Xeon E5-2660, 8x8Gb RAM, 2x QLogic FC HBA
    • ESXi 5.5 + vm Windows Server 2012R2 + LUN 100GB




    С точки зрения физического исполнения устройства придраться не к чему, но и выделить что-либо особенное тоже не получится. ETERNUS DX 100 S3 – добротная система, сделанная из качественных материалов, с уже устоявшимся среди всех производителей дизайном, продиктованным стоечным исполнением.

    Графический интерфейс управления СХД аскетичен и ничем особым не выделяется, это все те же верхние вкладки с горизонтальными древовидными подпунктами и таблицами выбора параметров. Самой слабой стороной данного интерфейса можно назвать реализацию мониторинга производительности, он как бы есть, но присутствует скорее «для галочки». Первое что напрягает – то, что мониторинг нужно включить обязательно, иначе показания будут ровны нулю, а включение его происходит совершенно в другом меню, так что не сразу и найдёшь. Но и после включения мы получаем ненастраиваемый перечень показаний, без каких бы то ни было графиков и визуализации, правда, с возможностью сохранения лога за некоторый период времени. Но всю неприглядность GUI компенсирует без преувеличения выдающееся в данном сегменте систем хранения данных количество настроек. Например, гибкое конфигурирование маппинга, как по портам, так и по порт-группам, LUN-группам и хостам. Есть возможность выбора режима работы с хостом, а именно: мы можем выбрать, по какой схеме будет работать асимметричный доступ к логическому диску ALUA (Asymmetric Logical Unit Access): Active-Active, Active-Passive или Preferred Path. Также мы можем указать, какое количество кэш-памяти будет доступно определенному логическому диску и многое другое.







    Исходя из заявлений производителя о том, что данная система является полноценным Active-Active устройством, можно ожидать обработки данных параллельно двумя контроллерными блоками, независимо от контроллера-«владельца» логического диска, что и подтвердилось при тестировании системы. Выбрав режим ALUA Active-Active на стороне СХД и применив политику мультипасинга Round Robin в настройках ESXi для диска, презентуемого гипервизору от DX 100 S3, мы получили два активных канала и распределение нагрузки на оба контроллера. Это видно на графике мониторинга ESXi и показаниями равномерной загрузки CPU обоих контроллеров СХД при записи тестового файла программой IOmeter.



    На графике можно увидеть, что общая скорость записываемых данных приблизилась к 500 000 килобайтам в секунду, пропуская через адаптеры (FC HBA – vmhba 1 и 2), подключенные к разным контроллерам, по 250 000 Kb/s.
    Ниже показаны усредненные результаты тестирования различными утилитами, работающими в виртуальной ОС Windows Server 2012, развернутой в среде виртуализации VMware ESXi 5.5

    AnvilBenchmark








    Данные результаты тестирования не однозначны, утилиты Anvil и CrystalDiskMark отразили очень хорошие показатели производительности для данного сегмента, а IOmeter, напротив, ничего выдающегося. Это связанно с тем, что СТАНДАРТНЫЕ синтетические тесты Anvil и CrystalDiskMark имеют заданные параметры, предназначенные больше для тестирования дисков (SSD, HHD) нежели СХД, и отражают, в основном, скорость дисковой подсистемы с учетом быстрого кэша (в нашем случаи 8 Гб, по 4 Гб на контроллер): чем больше кэша и дисков тем больше операций ввода/вывода мы получаем. IOmeter позволяет более гибко нагрузить систему, переполнить кэш, и увеличить очередь запросов. А для достижения максимальных результатов, приближенных к реальной нагрузке, нужно точно знать, чего мы хотим от системы хранения данных – сколько IOPS (Input/Output Operations Per Second) нам нужно (для этого мы набираем нужное количество дисков, иначе системе их просто неоткуда будет взять), какой процент будет приходиться на чтение, а какой на запись, сколько примерно одновременных запросов будет приходить (глубина очереди) и так далее. И здесь возможность гибкой настройки Fujitsu ETERNUS DX придется очень кстати. Но даже если использовать ее «как есть», с параметрами по умолчанию, мы получим максимум возможностей, помноженных на современную надежную программную и аппаратную составляющую.

    Подводя итог, стоит отметить два основных фактора, формирующих мнение о Fujitsu ETERNUS DX 100 S3. Первое – легкость ввода в эксплуатацию (никаких ошибок, проблем или затруднений с настройкой и подключением, все понятно и все работает), второе – гибкость системы (это и множество настроек, и возможность получить как блочный, так файловый доступ, а также апгрейд до более производительной системы хранения путем простой замены контроллеров).

    Подготовлено по материалу Третьякова Вячеслава, инженера компании «Парадигма». Полную версию статьи смотрите здесь.
    Fujitsu 57,16
    Японская компания-лидер ICT-рынка
    Поделиться публикацией
    Комментарии 4
    • +2
      Результаты тестов вызывают большие сомнения. Какие ещё 9 или тем более 65 тысяч IOPS с десяти дисков 10k? Тут кэш 4 ГБ на контроллер, а вы берете CrystalDiskMark с файлом в 500МБ и пытаетесь им что-то измерить, объясняя расхождение результатов с IOmeter туманной фразой про стандартные синтетические тесты. Так нельзя.
      Я охотно верю, что потолок производительности ETERNUS DX100 S3 находится на уровне аналогичных СХД, но «нащупать» его при помощи десятка HDD точно нельзя, тем более такими методами.
      • 0
        Так все эти «9 или тем более 65 тысяч IOPS» как раз и взялись оттого, что CrystalDiskMark по сути кэш и тестировал, а максимальный размер тестового файла он не позволяет выставить более 4 Гб, который так же ложится в рамки существующего кэша (и результат был бы тем же). Отсюда и «туманное» выражение о синтетике тестирования подобных утилит. А с IOmeter можно играться серьезнее, что и позволило выйти за рамки кэша и показать те несчастные 2779.862 IOps, которые и полагаются десяти дискам 10к.
        И целью обзора не было показать потолок производительности (с чего вы взяли?) ETERNUS DX100 S3. Целью обзора был, собственно, обзор, такой, на который хватило времени пребывания у нас СХД и ее дисковых ресурсов. А «нащупать» потолок при помощи десятка HDD" нельзя точно, и не только такими, но и другими методами (опять же, имею в виду ту конфигурацию, что была у нас).
        На счет туманности выводов, отчасти согласен… Наверное, надо было более широко раскрыть мысль.
        • 0
          С IOmetr'ом нельзя «играться», нельзя! «Играються» мальчики ночью под одеялом.
      • 0
        Согласны с вами. Но изюминкой данного обзора является продемонстрированная в нем простота настройки и поддержка всех современных технологий. Здесь нет даже упоминания о новейших фишках, таких как кэширование на SSD, снимки, поддержка технологий VMware VVOL, Microsoft ODX, и все это в базе, без дополнительных лицензий!
        А что касается потолка производительности, то это, как говорится, it depends. В этом случае лучше смотреть на результаты независимого тестирования, такого как www.storageperfomance.org И вот тут уже результат тестирования DX100S3 всего на 8 дисках SSD – более 55 000 IOPS и это, заметьте, при времени отклика порядка 0,8 мсек.
        Executive Summary
        Full Disclosure Report
        Submitted: 6 October 2014
        При этом стоит заметить, что заявленная производительность массива порядка 150 000 операций ввода-вывода при задержке 1 мс. Это говорит лишь о том, что тест SPC-1 не универсален, и имеет строго определенные рамки проведения нагрузочного тестирования. Внутренние тесты, как правило, у каждого производителя всегда имеют результаты выше как по IOPS, так и по времени отклика.
        Например:
        Sizing Tool for ETERNUS DX
        Connection: SAN
        Workload: Manual setting
        RAID type: RAID1
        Member disk: 1+1
        Disk type: SSD(12Gbps)
        Disk size: 2.5inch
        Disk capacity: 400GB
        Disk speed: SSD
        Access type: Random
        Block size: 8 KB
        R/W rate: 100:0
        Response time: 1,0000 ms
        Read hit rate: 50%
        Host I/F: FC 16Gbps
        Model (CM): ETERNUS DX100 S3(2CM) [V10L50]
        CA / port: 2/4
        Number of RAID: 4

        Performance of 1 RAID: 74509 IOPS
        Performance of estimated configuration: 149018 IOPS (104302 IOPS/TB)
        Number of Disk: 8 disks, 1,42 TB

        Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

        Самое читаемое