Pull to refresh

Основы мониторинга (обзор Prometheus и Grafana)

Reading time15 min
Views91K

Привет, Хабр!

Мониторинг сегодня – фактически обязательная «часть программы» для компании любых размеров. В данной статье мы попробуем разобраться в многообразии программного обеспечения для мониторинга и рассмотрим подробнее одно из популярных решений – систему на основе Prometheus и Grafana

История и определение

На заре появления компьютерных сетей в конце 1970х – начале 1980х гг. главной задачей мониторинга была проверка связности и доступности серверов. В 1981 году появился протокол ICMP, на основе которого в декабре 1983 года написана утилита ping, а позднее и traceroute, которые используются для диагностики сетевых неполадок и по сей день. Следующим этапом стало создание в 1988 году протокола SNMP, что привело к рождению MRTG – одной из первых программ для мониторинга и измерения нагрузки трафика на сетевые каналы. Параллельно с середины 1980х гг. стало активно разрабатываться программное обеспечение для мониторинга потребления ресурсов компьютерами, такое как topvmstatnmonTask Manager и др. К середине 1990х годов в связи с ростом ИТ инфраструктуры многие компании стали испытывать потребность в комплексной и централизованной системе мониторинга, что послужило спусковым крючком для синхронного начала разработки нескольких прототипов. В 1999-2002 гг. на свет появились решения, предопределившие развитие отрасли на годы вперед и развивающиеся до сих пор – Cacti, Nagios и Zabbix.

Мониторинг в ИТ сегодня – это система, которая позволяет в режиме реального времени выявлять проблемы в ИТ инфраструктуре, а также оценивать тренды использования ресурсов. Как правило состоит из нескольких базовых компонентов – сбора сырых данных, обработки данных с целью их анализа, рассылки уведомлений и пользовательского интерфейса для просмотра графиков и отчетов. В настоящее время существует большое количество систем для мониторинга различных категорий – сети, серверной инфраструктуры, производительности приложений (APM), реального пользователя (RUM), безопасности и др. Таким образом, мониторить можно все – от сетевой доступности узлов в огромной корпорации до значений датчика температуры в спальне в «умном» доме.

Читать подробнее:

Обзор систем мониторинга

Для цельности картины рассмотрим несколько примеров систем мониторинга:

  • PingInfoViewSolarWinds pingdom и др.
    Ping – наиболее известный способ проверки доступности узлов в сети. Программы, умеющие с определенным интервалом пинговать набор сетевых узлов и отражающие в режиме реального времени графики доступности, по сути есть зародыш системы мониторинга. Выручат, если полноценной системы мониторинга еще нет

  • Zabbix
    Поддерживает сбор данных из различных источников – как с помощью агентов (реализованы под большинство распространенных платформ), так и без них (agent-less) посредством SNMP и IPMI, ODBC, ICMP и TCP проверок, HTTP запросов и т.д., а также собственных скриптов. Имеются инструменты для преобразования и анализа данных, подсистема рассылки уведомлений и веб-интерфейс. Свободно распространяется по лицензии GNU GPL v2 (бесплатно)

  • PRTG
    Поддерживает сбор данных без агентов посредством преднастроенных сенсоров SNMP, WMI, Database, ICMP и TCP проверок, HTTP запросов и т.д., а также собственных скриптов. Имеются инструменты для анализа данных, удобная подсистема рассылки уведомлений и веб-интерфейс. Является коммерческим продуктом, лицензируется по количеству сенсоров. PRTG Network Monitor с количеством сенсоров не более 100 доступен для использования бесплатно

  • Nagios Core / Nagios XI
    Поддерживает сбор данных с помощью агентов (реализованы под большинство распространенных платформ) и без них посредством SNMP и WMI, а также расширений и собственных скриптов. Имеются инструменты для анализа данных, подсистема рассылки уведомлений и веб-интерфейс. Nagios Core свободно распространяется по лицензии GNU GPL v2 (бесплатно), Nagios XI является коммерческим продуктом. Подробнее о различиях между Nagios Core и Nagios XI можно почитать в статье Nagios Core vs. Nagios XI: 4 Key Differences 

  • Icinga
    Появилась как форк Nagios. Поддерживает сбор данных с помощью агентов, а также расширений и собственных скриптов. Имеются инструменты для анализа данных, подсистема рассылки уведомлений и веб-интерфейс. Свободно распространяется по лицензии GNU GPL v2 (бесплатно)

  • Prometheus
    Ядро – БД временных рядов (Time series database, TSDB). Поддерживает сбор данных из различных источников посредством экспортеров и шлюза PushGateway. Имеются инструменты для анализа данных, подсистема уведомлений и простой веб-интерфейс. Для визуализации рекомендуется использовать Grafana. Свободно распространяется по лицензии Apache License 2.0 (бесплатно)

  • VictoriaMetrics
    Ядро – БД временных рядов (TSDB). Поддерживает сбор данных из различных источников посредством экспортеров (совместимых с Prometheus), интеграции с внешними системами (например, Prometheus) и прямых запросов на вставку. Имеются инструменты для анализа данных, подсистема уведомлений и простой веб-интерфейс. Для визуализации рекомендуется использовать Grafana. Свободно распространяется по лицензии Apache License 2.0 (бесплатно)

  • Grafana
    Не является системой мониторинга, однако не упомянуть ее в контексте статьи просто нельзя. Является прекрасной системой визуализации и анализа информации, которая позволяет «из коробки» работать с широким спектром источников данных (data source) – Elasticsearch, Loki, MS SQL, MySQL, PostgreSQL, Prometheus и др. При необходимости также интегрируется с Zabbix, PRTG и др. системами. Свободно распространяется по лицензии GNU AGPL v3 (бесплатно)

Читать подробнее:

Работа с Prometheus и Grafana

Рассмотрим подробнее схему взаимодействия компонентов системы мониторинга на основе Prometheus. Базовая конфигурация состоит из трех компонентов экосистемы:

  • Экспортеры (exporters)
    Экспортер собирает данные и возвращает их в виде набора метрик. Экспортеры делятся на официальные (написанные командой Prometheus) и неофициальные (написанные разработчиками различного программного обеспечения для интеграции с Prometheus). При необходимости есть возможность писать свои экспортеры и расширять существующие дополнительными метриками

  • Prometheus
    Получает метрики от экспортеров и сохраняет их в БД временных рядов. Поддерживает мощный язык запросов PromQL (Prometheus Query Language) для выборки и аггрегации метрик. Позволяет строить простые  графики и формировать правила уведомлений (alerts) на основе выражений PromQL для отправки через Alertmanager

  • Alertmanager
    Обрабатывает уведомления от Prometheus и рассылает их. С помощью механизма приемников (receivers) реализована интеграция с почтой (SMTP), Telegram, Slack и др. системами, а также отправка сообщений в собственный API посредством вебхуков (webhook)

Таким образом, базовая конфигурация позволяет собирать данные, писать сложные запросы и отправлять уведомления на их основе. Однако по-настоящему потенциал Prometheus раскрывается при добавлении двух дополнительных компонентов (или как минимум одного – Grafana):

  • VictoriaMetrics
    Получает метрики из Prometheus посредством remote write. Поддерживает язык запросов MetricsQL, синтаксис которого совместим с PromQL. Предоставляет оптимизированное по потреблению ресурсов хранение данных и высокопроизводительное выполнение запросов. Идеально подходит для долговременного хранения большого количества метрик

    Примечание

    Имеет ли смысл рассматривать VictoriaMetrics как полноценную замену Prometheus, а не его дополнение (параллельную инсталляцию)? Вероятнее всего да. Экспортеры совместимы (для сбора данных можно дополнительно использовать vmagent), а для формирования уведомлений есть vmalert

  • Grafana
    Предоставляет средства визуализации и дополнительного анализа информации из Prometheus и VictoriaMetrics. Есть примеры дашбордов практически под любые задачи, которые при необходимости можно легко  доработать. Создание собственных дашбордов также интуитивно (разумеется, за исключением некоторых тонкостей) – достаточно знать основы PromQL / MetricsQL

Де-факто использование Grafana вместе с Prometheus уже стало стандартом, в то время как добавление в конфигурацию VictoriaMetrics безусловно опционально и необходимо скорее для высоконагруженных систем.

Схема взаимодействия компонентов
Схема взаимодействия компонентов

Практика

Итак, система мониторинга на основе Prometheus – PAVG (Prometheus, Alertmanager, VictoriaMetrics, Grafana) – предоставляет широкий спектр возможностей. Рассмотрим ее практическое применение. Для упрощения предположим, что основные компоненты будут развернуты на одном сервере мониторинга с примением docker и systemd, а также вынесем требования безопасности за рамки данной статьи.

Важное примечание

Все ниженаписанное является лишь иллюстрацией, которая призвана помочь ознакомиться с рассматриваемой системой

Развертывание экспортеров

Экспортеры могут быть развернуты на сервере мониторинга (например blackbox), на целевых серверах (kafka, mongodb, jmx и др.) или на всех серверах (node, cadvisor и др.). Как правило не требовательны к аппаратным ресурсам. В качестве примера возьмем три экспортера – node (сбор данных по ЦПУ, ОЗУ, дисковой подсистеме и сети), cadvisor (сбор информации о контейнерах) и blackbox (проверка точек входа TCP, HTTP/HTTPS и др.). Для развертывания необходимо:

  • Создать /etc/systemd/system/node-exporter.service

    node-exporter.service
    [Unit]
    Description=node exporter
    Requires=docker.service
    After=docker.service
     
    [Service]
    Restart=always
    ExecStartPre=-/usr/bin/docker rm node-exporter
    ExecStart=/usr/bin/docker run \
      --rm \
      --publish=9100:9100 \
      --memory=64m \
      --volume="/proc:/host/proc:ro" \
      --volume="/sys:/host/sys:ro" \
      --volume="/:/rootfs:ro" \
      --name=node-exporter \
      prom/node-exporter:v1.1.2
    ExecStop=/usr/bin/docker stop -t 10 node-exporter
     
    [Install]
    WantedBy=multi-user.target

  • Создать /etc/systemd/system/cadvisor.service

    cadvisor.service
    [Unit]
    Description=cadvisor
    Requires=docker.service
    After=docker.service
     
    [Service]
    Restart=always
    ExecStartPre=-/usr/bin/docker rm cadvisor
    ExecStart=/usr/bin/docker run \
      --rm \
      --publish=8080:8080 \
      --volume=/:/rootfs:ro \
      --volume=/var/run:/var/run:ro \
      --volume=/sys:/sys:ro \
      --volume=/var/lib/docker/:/var/lib/docker:ro \
      --volume=/dev/disk/:/dev/disk:ro \
      --privileged=true \
      --name=cadvisor \
      gcr.io/cadvisor/cadvisor:v0.44.0
     
    ExecStop=/usr/bin/docker stop -t 10 cadvisor
     
    [Install]
    WantedBy=multi-user.target

  • Создать /etc/systemd/system/blackbox-exporter.service

    blackbox-exporter.service
    [Unit]
    Description=blackbox exporter
    Requires=docker.service
    After=docker.service
     
    [Service]
    Restart=always
    ExecStartPre=-/usr/bin/docker rm blackbox-exporter
    ExecStart=/usr/bin/docker run \
      --rm \
      --publish=9115:9115 \
      --memory=64m \
      --name=blackbox-exporter \
      prom/blackbox-exporter:v0.22.0
    ExecStop=/usr/bin/docker stop -t 10 blackbox-exporter
     
    [Install]
    WantedBy=multi-user.target

  • Запустить сервисы

    sudo systemctl daemon-reload
    sudo systemctl start node-exporter cadvisor blackbox-exporter
    sudo systemctl status node-exporter cadvisor blackbox-exporter
    sudo systemctl enable node-exporter cadvisor blackbox-exporter
  • Проверить работу (здесь <hostname> – DNS запись или IP адрес вашего сервера)
    http://<hostname>:9100/metrics (node)
    http://<hostname>:8080/metrics (cadvisor)
    http://<hostname>:9115/metrics (blackbox)
    http://<hostname>:9115/probe?target=github.com&module=http_2xx
    http://<hostname>:9115/probe?target=github.com:443&module=tcp_connect

Экспортеры реализованы практически под все распространенное программное обеспечение, причем зачастую от нескольких разработчиков с разным набором метрик. Поиск не составляет труда – достаточно дать запрос на GitHubDockerHub или в любимой поисковой системе. Однако в случае необходимости можно написать свой экспортер – например на Go или Python.

Развертывание Alertmanager

Как правило не требователен к аппаратным ресурсам. Для развертывания необходимо:

  • Подготовить каталог для конфигурационного файла

    sudo mkdir /etc/alertmanager
  • Создать /etc/alertmanager/alertmanager.yml

    alertmanager.yml
    global:
      resolve_timeout: 10s
     
      # mail configuration
      smtp_smarthost: "<smtp_server_address>:25"
      smtp_from: "<smtp_from>"
      smtp_auth_username: "<smtp_username>"
      smtp_auth_password: "<smtp_password>"
     
    route:
      # default receiver
      receiver: "webhook_alert"
      group_wait: 20s
      group_interval: 1m
      group_by: [service]
      repeat_interval: 3h
     
      # receiver tree
      routes:
        - receiver: "mail"
          match_re:
            severity: warning|error|critical
          continue: true
        - receiver: "webhook_alert"
          match_re:
            severity: warning|error|critical
          continue: true
        - receiver: "webhook_report"
          match_re:
            severity: info
     
    # receiver settings
    receivers:
      - name: "mail"
        email_configs:
          - to: <mail_to>
     
      - name: "webhook_alert"
        webhook_configs:
        - send_resolved: true
          # api endpoint for webhook
          url: http://webhook_api_url/alert
     
      - name: "webhook_report"
        webhook_configs:
        - send_resolved: false
          # api endpoint for webhook
          url: http://webhook_api_url/report

    В рассматриваемом примере уведомления рассылаются на почту и две дополнительные точки входа API – для срочных уведомлений (warning|error|critical) и отчетов (info). Подробнее о подготовке конфигурации можно почитать в статье Alerting Configuration

  • Создать /etc/systemd/system/alertmanager.service

    alertmanager.service
    [Unit]
    Description=alertmanager
    Requires=docker.service
    After=docker.service
     
    [Service]
    Restart=always
    ExecStartPre=-/usr/bin/docker rm alertmanager
    ExecStart=/usr/bin/docker run \
      --rm \
      --publish=9093:9093 \
      --memory=512m \
      --volume=/etc/alertmanager/alertmanager.yml:/etc/alertmanager/alertmanager.yml:ro \
      --name=alertmanager \
      prom/alertmanager:v0.23.0 \
      --config.file=/etc/alertmanager/alertmanager.yml
    ExecStop=/usr/bin/docker stop -t 10 alertmanager
     
    [Install]
    WantedBy=multi-user.target

  • Запустить сервис

    sudo systemctl daemon-reload
    sudo systemctl start alertmanager
    sudo systemctl status alertmanager
    sudo systemctl enable alertmanager
  • Проверить работу (здесь <hostname> – DNS запись или IP адрес вашего сервера)
    http://<hostname>:9093
    http://<hostname>:9093/#/alerts
    http://<hostname>:9093/#/status

Для обеспечения высокой доступности Alertmanager поддерживает развертывание в кластерной конфигурации. Подробнее о создании кластера можно почитать в статье Alerting High Availability.

Развертывание VictoriaMetrics

Потребление ресурсов VictoriaMetrics зависит от количества опрашиваемых экспортеров и собираемых метрик, нагрузки запросами на чтение, глубины хранения данных и др. факторов. Вывести средние значения для старта достаточно сложно, однако для небольшой инсталляции достаточно 1 ядра ЦПУ, 2 ГБ ОЗУ и 20 ГБ дискового пространства. Для развертывания необходимо:

  • Подготовить каталог для хранения данных

    sudo mkdir -p /data/victoriametrics
  • Создать /etc/systemd/system/victoriametrics.service

    victoriametrics.service
    [Unit]
    Description=victoriametrics
    Requires=docker.service
    After=docker.service
     
    [Service]
    Restart=always
    ExecStartPre=-/usr/bin/docker rm victoriametrics
    ExecStart=/usr/bin/docker run \
      --rm \
      --publish=8428:8428 \
      --volume=/data/victoriametrics:/victoria-metrics-data \
      --name=victoriametrics \
      victoriametrics/victoria-metrics:v1.55.1 \
      -dedup.minScrapeInterval=60s \
      -retentionPeriod=2
    ExecStop=/usr/bin/docker stop -t 10 victoriametrics
     
    [Install]
    WantedBy=multi-user.target

    Указано хранение метрик в течение 2 месяцев

  • Запустить сервис

    sudo systemctl daemon-reload
    sudo systemctl start victoriametrics
    sudo systemctl status victoriametrics
    sudo systemctl enable victoriametrics
  • Проверить работу (здесь <hostname> – DNS запись или IP адрес вашего сервера):
    http://<hostname>:8428

Развертывание Prometheus

Потребление ресурсов Prometheus зависит от количества опрашиваемых экспортеров и собираемых метрик, нагрузки запросами на чтение, глубины хранения данных и др. факторов. Вывести средние значения для старта достаточно сложно, однако для небольшой инсталляции достаточно 1 ядра ЦПУ, 2 ГБ ОЗУ и 20 ГБ дискового пространства. Для развертывания необходимо:

  • Создать пользователя и подготовить каталоги для конфигурационных файлов и хранения данных

    sudo useradd -M -u 1101 -s /bin/false prometheus
    sudo mkdir -p /etc/prometheus/rule_files # каталог конфигурации
    sudo mkdir -p /data/prometheus # каталог данных
    sudo chown -R prometheus /etc/prometheus /data/prometheus

    Обязательно убедиться, что на раздел с каталогом для хранения данных выделено достаточно дискового пространства

  • Создать конфигурационный файл /etc/prometheus/prometheus.yml (здесь <hostname> – DNS запись или IP адрес вашего сервера)

    prometheus.yml
    global:
      scrape_interval: 15s
      scrape_timeout: 10s
      evaluation_interval: 30s
     
    # alerting settings
    alerting:
      alertmanagers:
      - follow_redirects: true
        timeout: 10s
        static_configs:
        - targets:
          - <hostname>:9093
     
    # alert rule files
    rule_files:
    - /etc/prometheus/rule_files/*.yml
     
    # remote write to victoriametrics
    remote_write:
    - url: http://<hostname>:8428/api/v1/write
      remote_timeout: 30s
     
    # scrape exporter jobs
    scrape_configs:
    - job_name: 'prometheus'
      static_configs:
        - targets:
          - <hostname>:9090
    - job_name: 'node'
      metrics_path: /metrics
      static_configs:
        - targets:
          - <hostname>:9100
    - job_name: 'cadvisor'
      metrics_path: /metrics
      static_configs:
        - targets:
          - <hostname>:8080
    - job_name: 'blackbox'
      metrics_path: /metrics
      static_configs:
        - targets:
          - <hostname>:9115
    - job_name: 'blackbox-tcp'
      metrics_path: /probe
      params:
        module: [tcp_connect]
      static_configs:
        - targets:
          - github.com:443
      relabel_configs:
        - source_labels: [__address__]
          target_label: __param_target
        - source_labels: [__param_target]
          target_label: instance
        - target_label: __address__
          replacement: <hostname>:9115
    - job_name: 'blackbox-http'
      metrics_path: /probe
      params:
        module: [http_2xx]
      static_configs:
        - targets:
          - https://github.com
      relabel_configs:
        - source_labels: [__address__]
          target_label: __param_target
        - source_labels: [__param_target]
          target_label: instance
        - target_label: __address__
          replacement: <hostname>:9115

  • Создать правила уведомлений /etc/prometheus/rule_files/main.yml

    rule_files/main.yml
    groups:
     
    - name: target
      rules:
        - alert: target_down
          expr: up == 0
          for: 1m
          labels:
            service: target
            severity: critical
          annotations:
            summary: 'Target down! Failed to scrape {{ $labels.job }} on {{ $labels.instance }}'
     
    - name: probe
      rules:
        - alert: probe_down
          expr: probe_success == 0
          for: 1m
          labels:
            service: probe
            severity: error
          annotations:
            summary: 'Probe {{ $labels.instance }} down'
     
    - name: hardware
      rules:
        - alert: hardware_cpu
          expr: 100 - (avg by(instance) (irate(node_cpu_seconds_total{mode="idle"}[1m])) * 100) > 75
          for: 3m
          labels:
            service: hardware
            severity: warning
          annotations:
            summary: 'High CPU load on {{ $labels.instance }} - {{ $value | printf "%.2f" }}%'
     
        - alert: hardware_memory
          expr: 100 - ((node_memory_MemAvailable_bytes * 100) / node_memory_MemTotal_bytes) > 85
          for: 3m
          labels:
            service: hardware
            severity: warning
          annotations:
            summary: 'High memory utilization on {{ $labels.instance }} - {{ $value | printf "%.2f" }}%'
     
        - alert: hardware_disk
          expr: (node_filesystem_free_bytes / node_filesystem_size_bytes * 100) < 25
          for: 3m
          labels:
            service: hardware
            severity: error
          annotations:
            summary: 'Low free space on {{ $labels.instance }} device {{ $labels.device }} mounted on {{ $labels.mountpoint }} - {{ $value | printf "%.2f" }}%'
     
    - name: container
      rules:
        - alert: container_down
          expr: (time() - container_last_seen) > 60
          for: 1m
          labels:
            service: container
            severity: error
          annotations:
            summary: 'Container down! Last seen {{ $labels.name }} on {{ $labels.instance }} - {{ $value | printf "%.2f" }}s ago'

    В данном случае для примера мы добавили только один файл c несколькими группами правил, однако в больших инсталляциях для удобства группы распределены по различным файлам – application, container, hardware, kubernetes, mongodb, elasticsearch и т.д.

  • Создать /etc/systemd/system/prometheus.service

    prometheus.service
    [Unit]
    Description=prometheus
    Requires=docker.service
    After=docker.service
     
    [Service]
    Restart=always
    ExecStartPre=-/usr/bin/docker rm prometheus
    ExecStart=/usr/bin/docker run \
      --rm \
      --user=1101 \
      --publish=9090:9090 \
      --memory=2048m \
      --volume=/etc/prometheus/:/etc/prometheus/ \
      --volume=/data/prometheus/:/prometheus/ \
      --name=prometheus \
      prom/prometheus:v2.30.3 \
      --config.file=/etc/prometheus/prometheus.yml \
      --storage.tsdb.path=/prometheus \
      --storage.tsdb.retention.time=14d
    ExecStop=/usr/bin/docker stop -t 10 prometheus
     
    [Install]
    WantedBy=multi-user.target

    Указано хранение метрик в течение 14 суток

  • Запустить сервис

    sudo systemctl daemon-reload
    sudo systemctl start prometheus
    sudo systemctl status prometheus
    sudo systemctl enable prometheus
  • Проверить работу (здесь <hostname> – DNS запись или IP адрес вашего сервера)
    http://<hostname>:9090
    Status → Configuration, Status → Rules, Status → Targets 

Для обеспечения высокой доступности Prometheus может быть развернут в нескольких экземплярах, каждый из которых будет опрашивать экспортеры и сохранять данные в локальную БД.

Развертывание Grafana

Grafana не слишком требовательна к потреблению ресурсов – для небольшой инсталляции достаточно 1 ядра ЦПУ и 1 ГБ ОЗУ (хотя, конечно, есть нюанс...). Для развертывания необходимо:

  • Создать пользователя и подготовить каталоги для конфигурационных файлов и хранения данных

    sudo useradd -M -u 1102 -s /bin/false grafana
    sudo mkdir -p /etc/grafana/provisioning/datasources # каталог декларативного описания источников данных
    sudo mkdir /etc/grafana/provisioning/dashboards # каталог декларативного описания дашбордов
    sudo mkdir -p /data/grafana/dashboards # каталог данных
    sudo chown -R grafana /etc/grafana/ /data/grafana
  • Создать файл декларативного описания источников данных /etc/grafana/provisioning/datasources/main.yml (здесь <hostname> – DNS запись или IP адрес вашего сервера)

    datasources/main.yml
    apiVersion: 1
     
    datasources:
      - name: Prometheus
        type: prometheus
        version: 1
        access: proxy
        orgId: 1
        basicAuth: false
        editable: false
        url: http://<hostname>:9090
      - name: VictoriaMetrics
        type: prometheus
        version: 1
        access: proxy
        orgId: 1
        basicAuth: false
        editable: false
        url: http://<hostname>:8428

  • Создать файл декларативного описания дашбордов /etc/grafana/provisioning/dashboards/main.yml

    dashboards/main.yml
    apiVersion: 1
     
    providers:
    - name: 'main'
      orgId: 1
      folder: ''
      type: file
      disableDeletion: false
      editable: True
      options:
        path: /var/lib/grafana/dashboards

  • Добавить дашборд Node Exporter Full в каталог /data/grafana/dashboards

    cd ~/ && git clone https://github.com/rfmoz/grafana-dashboards
    sudo cp grafana-dashboards/prometheus/node-exporter-full.json /data/grafana/dashboards/

    Репозиторий и его содержимое актуальны на начало 2023 года

  • Создать /etc/systemd/system/grafana.service

    grafana.service
    [Unit]
    Description=grafana
    Requires=docker.service
    After=docker.service
     
    [Service]
    Restart=always
    ExecStartPre=-/usr/bin/docker rm grafana
    ExecStart=/usr/bin/docker run \
      --rm \
      --user=1102 \
      --publish=3000:3000 \
      --memory=1024m \
      --volume=/etc/grafana/provisioning:/etc/grafana/provisioning \
      --volume=/data/grafana:/var/lib/grafana \
      --name=grafana \
      grafana/grafana:9.2.8
    ExecStop=/usr/bin/docker stop -t 10 grafana
     
    [Install]
    WantedBy=multi-user.target

  • Запустить сервис

    sudo systemctl daemon-reload
    sudo systemctl start grafana
    sudo systemctl status grafana
    sudo systemctl enable grafana
  • Проверить работу (здесь <hostname> – DNS запись или IP адрес вашего сервера)
    http://<hostname>:3000 (учетные данные по умолчанию – admin/admin, желательно сразу изменить пароль)
    Configuration → Data sources
    Explore → Metric → up → Run query
    Dashboards → Browse → General → Node Exporter Full

Подсказки

На практике могут быть полезны следующие простые советы:

  • Ищите проверенные экспортеры под свои потребности. В этом может помочь статья Топ-10 экспортеров для Prometheus 2023

  • Обязательно изучите PromQL Cheat Sheet

  • Почаще исследуйте метрики в «сыром» виде (от экспортеров)

  • Система мониторинга на основе Prometheus описывается декларативно. Храните конфигурации в git и используйте ansible для автоматизации


За помощь в подготовке статьи автор выражает благодарность @novikov0805@Eviil и @KoPashka

Все статьи серии:

  1. Основы Linux (обзор с практическим уклоном)

  2. Основы виртуализации (обзор)

  3. Основы контейнеризации (обзор Docker и Podman)

  4. Основы мониторинга (обзор Prometheus и Grafana)

Tags:
Hubs:
Total votes 17: ↑14 and ↓3+11
Comments21

Articles