Использование smartctl для проверки RAID контроллеров Adaptec под Linux

    Команду «smartctl -d ata -a /dev/sdb» можно использовать для проверки жесткого диска и текущего состояния его соединения с системой. Но как с помощью команд smartctl проверить SAS или SCSI диски, спрятанные за RAID контроллером Adaptec в системах под управлением Linux ОС? Для этого необходимо использовать последовательные синтаксисы проверки SAS или SATA. Как правило — это логические диски для каждого массива физических накопителей в операционной системы. Команду /dev/sgX возможно использовать в качестве перехода через контроллеры ввода/вывода, которые обеспечиваюь прямой доступ к каждому физическому диску, подключенному к RAID контроллеру Adaptec.



    Распознает ли Linux контроллер Adaptec RAID?


    Для проверки Вы можете использовать следующую команду:

    # lspci | egrep -i 'raid|adaptec' 
    


    В результате выполнения команды получите следующее:

    81:00.0 RAID bus controller: Adaptec AAC-RAID (rev 09)
    


    Загрузка и установка Adaptec Storage Manager для Linux


    Необходимо установить Adaptec Storage Manager в соответсвии собранному дисковому массиву.

    Проверяем состояния SATA диска


    Команда для сканирования накопителя выглядит довольно просто:

    # smartctl --scan
    


    В результате у Вас должно получится следующее:

    /dev/sda -d scsi # /dev/sda, SCSI device
    


    Таким образом, /dev/sda — это одно устройство, которое было определено как SCSI устройство. Выходит, что у нас SCSI собран из 4 дисков, расположенных в /dev/sg {1,2,3,4}. Введите следующую smartclt команду, чтобы проверить диск позади массива /dev/sda:

    # smartctl -d sat --all /dev/sgX
    # smartctl -d sat --all /dev/sg1
    


    Контроллер должен сообщать о состоянии накопителя и уведомлять про ошибки (если такие имеются):

    # smartctl -d sat --all /dev/sg1 -H
    


    Для SAS диск используют следующий синтаксис:

    # smartctl -d scsi --all /dev/sgX
    # smartctl -d scsi --all /dev/sg1
    ### Ask the device to report its SMART health status or pending TapeAlert message ###
    # smartctl -d scsi --all /dev/sg1 -H
    


    В результате получим что то похожее на:

    smartctl version 5.38 [x86_64-redhat-linux-gnu] Copyright (C) 2002-8 Bruce Allen
    Home page is http://smartmontools.sourceforge.net/
     
    Device: SEAGATE  ST3146855SS      Version: 0002
    Serial number: xxxxxxxxxxxxxxx
    Device type: disk
    Transport protocol: SAS
    Local Time is: Wed Jul  7 04:34:30 2010 CDT
    Device supports SMART and is Enabled
    Temperature Warning Enabled
    SMART Health Status: OK
     
    Current Drive Temperature:     24 C
    Drive Trip Temperature:        68 C
    Elements in grown defect list: 0
    Vendor (Seagate) cache information
      Blocks sent to initiator = 1857385803
      Blocks received from initiator = 1967221471
      Blocks read from cache and sent to initiator = 804439119
      Number of read and write commands whose size <= segment size = 312098925
      Number of read and write commands whose size > segment size = 45998
    Vendor (Seagate/Hitachi) factory information
      number of hours powered up = 13224.42
      number of minutes until next internal SMART test = 42
     
    Error counter log:
               Errors Corrected by           Total   Correction     Gigabytes    Total
                   ECC          rereads/    errors   algorithm      processed    uncorrected
               fast | delayed   rewrites  corrected  invocations   [10^9 bytes]  errors
    read:   58984049        1         0  58984050   58984050       3151.730           0
    write:         0        0         0         0          0   9921230881.600           0
    verify:     1308        0         0      1308       1308          0.000           0
     
    Non-medium error count:        0
    No self-tests have been logged
    Long (extended) Self Test duration: 1367 seconds [22.8 minutes]
    


    А вот команда для проверки следующего диска с интерфейсом SAS, названного /dev/sg2:

    # smartctl -d scsi --all /dev/sg2 -H
    


    В /dev/sg1 заменяется номер диска. Например, если это RAID10 из 4-х дисков, то будет выглядеть так:

    /dev/sg0 - RAID 10 контроллер.
    /dev/sg1 - Первый диск в массиве RAID 10.
    /dev/sg2 - Второй диск в массиве RAID 10.
    /dev/sg3 - Третий диск в массиве RAID 10.
    /dev/sg4 - Четвертый диск в массиве RAID 10.
    


    Проверить жесткий диск можно с помощью следующих команд:

    # smartctl -t short -d scsi /dev/sg2
    # smartctl -t long -d scsi /dev/sg2
    


    Где,

    -t short : Запуск быстрого теста.
    -t long : Запуск полного теста.
    -d scsi : Указывает scsi, как тип устройства.
    --all : Отображает всю SMART информацию для устройства.
    


    Использование Adaptec Storage Manager


    Другие простые команды для проверки базового состояния выглядят следующим образом:

    # /usr/StorMan/arcconf getconfig 1 | more
    # /usr/StorMan/arcconf getconfig 1 | grep State
    # /usr/StorMan/arcconf getconfig 1 | grep -B 3 State
    


    Пример результата:

    Device #0
             Device is a Hard drive
             State                              : Online
    --
             S.M.A.R.T.                         : No
          Device #1
             Device is a Hard drive
             State                              : Online
    --
             S.M.A.R.T.                         : No
          Device #2
             Device is a Hard drive
             State                              : Online
    --
             S.M.A.R.T.                         : No
          Device #3
             Device is a Hard drive
             State                              : Online
    


    Обратите внимание на то, что более новая версия arcconf расположена в архиве /usr/Adaptec_Event_Monitor. Таким образом, весь путь должен выглядеть так:

    # /usr/Adaptec_Event_Monitor/arcconf getconfig [AD | LD [LD#] | PD | MC | [AL]] [nologs]
    


    Где,

    Prints controller configuration information.
    
        Option  AD  : Информация исключительно о контроллере Adapter
                LD  : Информация исключительно о логических устройствах
                LD# : Дополнительная информация об указанном логическом устройстве
                PD  : Информация исключительно о физическом устройстве
                MC  : Информация исключительно о Maxcache 3.0
                AL  : Вся информация
    


    Вы можете самостоятельно проверить состояние массива Adaptec RAID на Linux с помощью ввода простой команды:

    # /usr/Adaptec_Event_Monitor/arcconf getconfig 1

    Или (более поздняя версия):

    # /usr/StorMan/arcconf getconfig 1
    


    Примерный результат на фото:




    

По традиции, немного рекламы в подвале, где она никому не помешает. Напоминаем, что в связи с тем, что общая емкость сети нидерландского дата-центра, в котором мы предоставляем услуги, достигла значения 5 Тбит / с (58 точек присутствия, включения в 36 точек обмена, более, чем в 20 странах и 4213 пиринговых включений), мы предлагаем выделенные серверы в аренду по невероятно низким ценам, только неделю!.
    Метки:
    ua-hosting.company 127,64
    Хостинг-провайдер
    Поделиться публикацией
    Комментарии 14
    • +6
      • +1
        Продукция Adaptec доставляет в разных вариантах. Вот из старого.

        start() {
          echo "starting Adaptec Storage Manager agent ..."
          kill `ps axwww | grep java | grep StorMan | grep ManagementAgent | cut -b 1-6` 1>/dev/null 2>&1
          sleep 2
          kill -9 `ps axwww | grep java | grep StorMan | grep ManagementAgent | cut -b 1-6` 1>/dev/null 2>&1
          sh /usr/StorMan/StorAgnt.sh >/dev/null 2>&1 &
          sleep 1
          echo
        }
        
                                                                        
        stop() {
          echo "stopping Adaptec Storage Manager agent ..."
          kill `ps axwww | grep java | grep StorMan | grep ManagementAgent | cut -b 1-6` 1>/dev/null 2>&1
          sleep 2
          kill -9 `ps axwww | grep java | grep StorMan | grep ManagementAgent | cut -b 1-6` 1>/dev/null 2>&1
          sleep 1
          echo
        }
        


        а полез я туда, что бы поправить sed -e “s/0-6/\ 1-6/g” -i stor_agent
        иначе выдавал ошибку cut: fields and positions are numbered from 1 ;)
        и это блин для RAID!!! да Raid железка там была ыНтерпрайс уровня.

        После такого, mdadm кажется более разумным решением.
        • 0
          Я еще молод и неопытен
          Мне лично кажется, что хардварные рейды — зло. По разным причинам.
          Если у вас хранилище, поддерживаемое вендором и вы туда не имеете права лазить — это одно, но если всей это радостью заведуете вы — я бы отдал предпочтение mdadm. У него тоже есть свои приколы, но он хотя бы работает везде ± одинаково.
          • 0
            если у вас есть уже рейд контроллер например adaptec 5405 и полка например MSA 60
            вы предлагаете
            использовать adaptec как hba и все собирать на mdadm?
            imho моветон
            • 0
              Как бы вам сказать… Мы такое сделали, один раз, когда РК был ну совсем никакой. Правда я уже модуль не помню — какой-то древний РК в Hetzner'е.
              А так — стараемся избегать хардварных рейдов.
              Правда, у нас ситуация такая, что нам, с нашими задачами/объемами пока сильно не приходится зависеть от хардварных рейдов, я не исключаю что может быть иначе.
              • 0
                Все зависит от задач. Но в целом до определенного момента mdadm действительно сейчас выглядеть неплохо.
                Но думаю, с учетом кризиса и цен на железо, в моду опять пойдут сборные сервера с отдельными raid.
            • 0
              В некоторых случаях — любые рейды зло, намного быстрее и надежнее хранить на отдельных дисках. Только надёжность надо организовать самостоятельно…
              РК с включёным WriteBack cache могут дать существенный прирост производительности.

              Как-то проводил простое сравнительное тестирование на Dell R720, 128Gb RAM, 16x 10K SAS, RAID PERK H710P:
              при записи 1-3 потока — быстрее PERK
              при записи 4+ потоков побеждал ZFS с разрывом до 1,5 раза
            • 0
              Смею вас заверить, у ***ного LSI ситуация ещё хуже, вплоть до тупого отсутствия поддержки Линуксов. Или танцы с бубном для «поддерживаемого» RH.

              Всё-таки ADAPTEC по моему опыту дружественнее к Пингвинам.
              • +1
                Не встречал контроллеров LSI без утилит для Linux, и драйвера всегда были. Единственное — есть проблема с поиском утилит в DEB пакетах (но они есть). Ну и консольные команды придумывали чужие для хищников.
                • 0
                  Как вам сказать, раньше это была игра в лотерею. Прежде чем покупать, приходилось изучать вопросы работы. В целом как сказали у LSI ситуация лучше, чем у Adaptec. Но каки везде, если лучше есть хуже.
                  • 0
                    5 (уже 6) лет назад я столкнулся с большими проблемами у LSI и с тех пор на них даже не смотрел. Неужели они одумались и всё заметно улучшилось?
                    • 0
                      Да кто его знает, я наоборот уже 5 или 6 лет на это не смотрю. Есть схд или распределенные ФС, а дома на NAS сделал тупо mdadm.
                      Там диких нагрузок нет :)
            • +1
              Надо у пингвина глаза красные сделать, для достоверности :)
              • 0
                В статье не хватает этой ссылки www.smartmontools.org/wiki/Supported_RAID-Controllers
                И небольших комментариев относительно aacraid.

                Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                Самое читаемое