Pull to refresh

Comments 35

Узнал о Proxmox пару недель назад, когда пытался выбрать между kvm и Hyper-V. В итоге выбор пал на kvm под управлением Proxmox. Удобство не бывает лишним.
Немного не в тему, но есть ли хотя бы какое-то резервного копирования для KVM с возможностью инкрементальных бэкапов (пример Veeam для VMWare), vzdump и lvm снэпшоты это хорошо, но не всегда достаточно функционально.

Спасибо
Юзайте любой софт для бекапа внутри машин. Внешнего софта нет, а доверять бекап sql тому же Veeam я бы не стал.
В Proxmox версии 2.2 появилась возможность делать инкрементальные Snapshot'ы KVM машин, причем не выключая машину — налету. Диски должны быть qcow2.
Прост, доступен, легче. Linux under linux в реализации openvz — вообще не создает дополнительных нагрузок в виде полной виртуализации.
Стабильностью (использую на продакшене уже второй год) и возможностью установки проксмокса даже чайником. А вообще это два разных типа систем.
Но ЗАЧЕМ? Установить на систему голый KVM или XEN — задача 5 минут, есть мануалы, где это разжевано по полочкам, причем именно в применении к хецнеру. Ставить дополнительный оверхэд в виде сервиса проксмокс — я просто не вижу в этом смысла.
Голый KVM или XEN — это хорошо когда раз настроил и забыл. А если регулярно ворочать машины — то оверхедом можно и пренебречь в пользу удобства.
bash и автокомплит рулит неимоверно. Да и консоли параметром можно много больше набрать. Скажите как мне потюнить виртуалку под пострегрес в вашем промоксе? :)
А что вы тюните в виртуалке не в проксмоксе для постгрес?
Как и обычно, в консоли.
Удобно управлять из вебинтерфейса.
Раньше я всегда ставил голый православный xen.
Вы забыли о самом интересном — у Proxmox-а есть возможность делать бекап со снапшота образа диска. Другими словами, вирт. машина замирает на мгновение, делается снапшот, он проверяется на ошибки ФС, а затем архивируется.

Работает эта возможность благодаря LVM. Для этого штатный установщик Proxmox-а (с загружаемого от них диска) разбивает диск на системную часть и на часть с LVM, на которой и будут впоследствии храниться образы вирт. машин.

В вашем случае никакого LVM-а нет. А значит, и нет приятной (и очень полезной!) возможности, которая у Прокса работает «из коробки», и довольно хорошо.

Проще уж взять голый сервер, заказать KVM (или заюзать IPMI), и на него поставить все по уму.
Помимо этого, Proxmox ( не без танцев с бубном, но с приличным мануалом ) умеет HA на основе DRBD, как репликация фаловой системы, ну и corosync + pacemaker, что бы управлять этими ресурсами.

Если еще на винте создать LVM, то можно будет на каждый контейнер выделять свой раздел, что в последствии поможет каждый контейнер openvz запускать на любой из нод +!!! миграция.

Live Migration, HA и прочие прелести — это очень интересно, да. В первой ветке с ними было малость попроще (точнее, бесконтрольнее: строй, что хочешь, а о ошибках в своих расчетах узнаешь только при реальном использовании HA — т.е. уже «поздно»), сейчас же (в 2.х) настоящая HA возможна только при наличии fencing-устройств на всех серверах, объединенных в кластер. Зато обеспечивается уверенность, что, если ВМ работала на конкретном хост-сервере, а сервер возьми, да и умри, и система подняла ВМ на втором хост-сервере, то первый сервер внезапно не проснется — как раз fencing ему и не даст. Хитро и логично.

DRBD — штука хорошая. Но (!) на обоих машинах очень рекомендуется либо поставить хорошие RAID-контроллеры с батарейками (про сам RAID в смысле резервирования диски и не говорю — Proxmox очень не любит софтовые зеркала) — либо вовсе не связываться с этой замечательной, но очень своеобразно ведущей себя (если готовить не уметь) системой.
Нет никаких проблем в том чтоб сделать LVM под виртуальные диски. Просто при установке Debian Minimal через installimage надо разбить диски примерно так (размер по вкусу и в зависимости от объема дисков на сервере:

PART /boot ext2 4G
PART lvm pve all

LV pve root / ext4 20G
LV pve swap swap swap 8G
LV pve vz /var/lib/vz ext4 180G


А после добавить группу «pve» как LVM хранилище.
Извините, а зачем вам под /boot надо 4G и почему ext2? Это мотивированно чем-то?
Размер /boot мотивирован одним — «запас карман не тянет» в принципе достаточно буквально 256Мегабайт, одно ядро примерно 50Мбайт «весит».
ext2 — по нескольким причинам: на /boot партиции журнал ни к чему, когда-то некоторые загрузчики не поддерживали других ФС для /boot сейчас это уже не так, а привычка, скажем так, осталась.
Статья ни о чем.
Ибо не понять, что помешало автору поставить Proxmox, который предлагает сам Хетзнер.
Выглядело бы так:
1) Заходим на robot.your-server.de и выбираем нужный сервер.
2) Выбираем вкладку Rescue, загружаемся по ssh и выбираем installimage(стрелочку вверх).
3) Выбираем виртуализацию, где видим сам Proxmox.
Пол часа пьем чай, а дальше как мышкой кликать по веб интерфейсу много написано в гугле.
P.S. Таким способом было поднято мной 3 сервера на хетзнере и 1 пережил обновление.
Либо вы знаете слишком много, либо слишком мало. В первом случае, а речь идет видимо об этом, вас мало чем можно удивить, но есть что рассказать. Например, очень интересно, как происходил процесс обновления и почему только на одной машине этот процесс не вызвал никаких нареканий. Если, конечно, вы можете поведать о чем-то более интересном, нежели apt-get update и apt-get upgrade. )
Не «ложить», а «класть». Режет глаз аж в двух местах.
Вот если бы в нем еще можно было задавать лимит трифика в месяц или лимит скорости сетевухи работал и на отдачу — цены б ему не было.
Есть лимит скорости сетевых карт.
image
О какой виртуализации идет речь?
KVM
У меня почему-то
не работает
Есть только один минус, драйверов virtio нет для *bsd-based дистрибутивов :(
*bsd-based дистрибутивов много. На FreeBSD точно есть.
Я например, ставил драйвера на pfSense.
а на FreeNAS таких дров нет. Поэтому ставить на жесткие диски VirtIO нельзя
www.webvirtmgr.net — конечно функионал далеко такой как у Proxmox, но для управления и доступа к виртуалками очень даже удобно.
Пардон: «далеко не такой»
Я добавлю. Они сейчас запиливают поддержку ceph, в качестве shared storage, а новое ядро pve в 2.2 уже готово к применению openvz ploop, надо только утилиты пересобрать.
— openvz очень легковесна и работает очень шустро. Если этого мало, то kvm.
— ceph недавно проинвестировался на лям баксов и за три буквально месяца превратился в production ready продукт, позволяющий за полчаса организовать мощный shared storage, отказоустойчивый и быстрый. У kvm для него есть обертки, можно запулить на это виртуалку.
— openvz ploop позволяет всю файлуху виртуалки хранить в файле, а его подключить как расширенный loop device. Тут и живая миграция, и снапшоты и снижение нагрузки на файловую систему hardware ноды.

Эти штуки очень крутые. Мы у себя тестируем, довольны как слоны. Почти как vmware, только лучше.
Кому интересно, пишите, есть много чего рассказать, можем написать статью даже )
Пишите, будет интересно почитать :)
Привет всем.

Подскажите, пожалуйста, лучшую практику разбивки файловой системы (на хосте) под такой случай:
— 3 виртуалки ubuntu (с дисками по 20Гб)
— 1-2 с windows (с дисками по 100Гб)
Какой оставлять патицию под backup на LVM, чтобы всё правильно работало и dump снимался налету? MDM, LVM…

Хост будет, скорее всего, от Hetzner. EX6 с двумя винтами.

Спасибо большое за совет.
Sign up to leave a comment.

Articles