top
logo


Пример шаблона Блога Раздела (раздел FAQ)
Восстановление из backup виртуальных машин Proxmox VE PDF Печать E-mail
09.01.13 11:18

В архив копируется образы дисков и файл конфигурации.
С восстановлением пока сложнее, все придется делать руками.

В архива находится два файла:
qemu-server.conf - конфигурация виртуальной машины;
vm-disk-virtio0.raw — образ диска виртуальной машины.

Вот что представляет собой файл конфигурации:

name: mail
ide2: local:iso/debian-505-amd64-CD-1.iso,media=cdrom
vlan0: virtio=82:15:30:A4:65:E7
bootdisk: virtio0
virtio0: local:101/vm-101-disk-1.raw
ostype: l26
memory: 1024
onboot: 1
sockets: 1
vlan1: virtio=42:45:F5:F2:95:A8
cores: 1
boot: cad
freeze: 0
cpuunits: 2000
acpi: 1
kvm: 1
lock: backup

Итак приступим.

Восстановление OpenVZ

/usr/sbin/vzrestore [OPTIONS] <ARCHIVE> <VMID>

OPTIONS - можно упустить
ARCHIVE - имя архива
VMID - идентификатор виртуальной машины

Например

/usr/sbin/vzrestore /root/vzdump-openvz-101-2011_04_07-02_00_02.tar 101

восстанавливаем архив /root/vzdump-openvz-101-2011_04_07-02_00_02.tar и присваеваем восстановленной машине ID 101
Вывод лога при восстановлении примерно такой

INFO: restore openvz backup '/root/vzdump-openvz-101-2011_04_07-02_00_02.tar' using ID 101
INFO: extracting archive '/root/vzdump-openvz-101-2011_04_07-02_00_02.tar'
INFO: Total bytes read: 951459840 (908MiB, 49MiB/s)
INFO: extracting configuration to '/etc/vz/conf/101.conf'
INFO: restore openvz backup '/root/vzdump-openvz-101-2011_04_07-02_00_02.tar' successful

При восстановление qemu архива используется qmrestore, параметры такие же

/usr/sbin/qmrestore /root/vzdump-qemu-102-2011_04_07-02_02_06.tar 102

Вывод лога при восстановлении примерно такой:

INFO: restore QemuServer backup '/root/vzdump-qemu-102-2011_04_07-02_02_06.tar' using ID 102
INFO: extracting 'qemu-server.conf' from archive
INFO: extracting 'vm-disk-ide0.raw' from archive
INFO: Formatting '/var/lib/vz/images/102/vm-102-disk-1.raw', fmt=raw size=32768
INFO: new volume ID is 'local:102/vm-102-disk-1.raw'
INFO: restore data to '/var/lib/vz/images/102/vm-102-disk-1.raw' (64424509440 bytes)
INFO: 64424509440 bytes copied, 114 s, 538.95 MiB/s
INFO: restore QemuServer backup '/root/vzdump-qemu-102-2011_04_07-02_02_06.tar' successful

Вот собственно и все восстановление.
После этих процедур вы должны увидеть все виртуальные машины в веб интерфейсе.

 

источник: http://www.alexr.me/index.php/articles/28-linux/123-backup-proxmox-ve

ссылка на материа: http://thin.kiev.ua/categoryblog/735-restore-from-backup-virtual-machines-proxmox-ve.html

{jcomments on}

Последнее обновление 09.01.13 11:21
 
Ускоряем бекап в Proxmox VE 2 PDF Печать E-mail
09.01.13 11:15

Ускоряем бекап в Proxmox VE 2

 

Наткнулся тут на форуме Proxmox на интересный хак (http://forum.proxmox.com/threads/5967-Speed-up-vzdump-using-pigz)

Простым копипастом в консоль рута этакий многострочник
aptitude install -y pigz && \
cat >> /bin/pigzwrapper << EOF00
#!/bin/sh
PATH=\${GZIP_BINDIR-'/bin'}:\$PATH
GZIP="-1"
exec /usr/bin/pigz -p 4 "\$@"
EOF00
&& \
chmod 755 /bin/pigzwrapper && mv /bin/gzip /bin/gzip.original && cp /bin/pigzwrapper /bin/gzip

И меняем во всех бекапных планах метод сжатия на gzip

Всем пока

ЗЫ
Забыл сказать в этой строке укажите кол-во ваших процессоров (про гипертрейдинг не забудьте)
exec /usr/bin/pigz -p 4 , у меня двух процессорный сервер, с гипертрейдингом получается 4

ЗЫ2 само собой при бекапе выбираем метод GZIP несмотря что он slow

 

источник: http://www.openkazan.info/node/5822

Последнее обновление 09.01.13 11:17
 
ProxMox 2: в два раза кривее PDF Печать E-mail
09.01.13 11:10

Так уж исторически сложилось, что мне по наследству достались production-системы, построенные на базе ProxMox VE. Хоть разработчики гордо утверждают, что это "самостоятельный продукт с огромным community", но по факту это просто красивая веб-морда для OpenVZ+KVM с набором удобных утилит.

Как известно, опыт системного администратора растёт прямо пропорционально количеству испорченного оборудования. По мере хождения по граблям выяснилось следующее.

I. Касательно OpenVZ

  • OpenVZ можно использовать только для примитивных проектов уровня LAMP. Шаг вправо, шаг влево — kernel panic. А поскольку ядро там одно на всех, то последствия понятны.
  • В OpenVZ существует куча ограничений на используемые внутри контейнеров ресурсы. Например, нельзя "из коробки" без серьезных ухищрений примонтировать чужую CIFS или пользовать OpenVPN.
  • Реализация NFS в OpenVZ — это вообще из серии "понемногу средь багов нащупал дорогу".
  • При малейшем дуновении ветра под OpenVZ отказывается работать Live (online) Migration без объяснения причин.
  • В некоторых случаях OpenVZ-flavoured ядро улетает в Kernel Panic просто в момент банальной штатной остановки контейнера.

II. Касательно самого ProxMox 1.x

  • Если попытаться выкинуть кривое OpenVZ-ное ядро и пользовать "родное" Debian-овское чисто под KVM, то утилита бэкапа виртуалок vzdump отказывается работать под предлогом того, что не может получить из sysfs список VZ-контейнеров. И неважно, что тебя интересуют только KVM-ные виртуалки. Пофиг. Если хочешь автоматизированных бэкапов — будь добр ставить PVE-шное ядро, без вариантов. Ну или хакать Perl-овые модули компонентов ProxMox-а.
  • Забавно реализована миграция виртуалок между хостами. Она может происходить только посредством rsync поверх SSH. Получается что. К примеру, две крутых железки в одном датацентре соединены гигабитным шлангом. А скорость миграции максимум 40 МБайт/с. Почему? А всё упирается в SSH-шифрование, которое никак нельзя отключить и до кучи ещё и не распараллеливается между ядрами процессора.
  • Коммуникации между узлами "кластера" строятся на отсылке нодами друг другу команд через SSH. Всё бы ничего, но это делается из-под root-а с авторизацией по RSA keys. Безопасность такая безопасная...
  • Именование и зависимости DEB-пакетов выстроены настолько бездарно, что нормальным прямым способом на "чистую" уже готовую Debian-систему это не ставится. Только раком и через одно место. Вместе с тем "автоматический" инсталлятор "для чайников" ничего не спрашивая размечает жесткий диск так, что лучше бы он вообще этого не делал.

III. Касательно ProxMox 2.x

Ну там уж вообще как в анекдоте: "А потом приехал поручик Ржевский, и тут тако-о-о-ой разврат начался". Ребята-разработчики решили забубенить супер-мега кластер из адской помеси Corosync, SQLite3 и FUSE. Софт они взяли из Debian, ядро от RedHat. При этом им пришлось пересобрать часть Debian-пакетов; что-то они выдрали из тестируемой ветки в стабильную, что-то не мудрствуя лукаво стырили из backports. Молодцы, чо. Народ с хабра попробовал попользовать в этом коктейле какие-нибудь кластерные файловые системы типа OCFS и GFS. Не получилось. И я почему-то совсем не удивлён.

Самое же весёлое заключается в том, что вся эта радость ещё и ни хрена не задокументирована. Что... где... как... почему... куда копать... Всем желающим предлагается самостоятельно ковыряться в тонне Perl-овых скриптов чтобы разобраться как оно работает. Вот спасибо, добрые феи. Радость ещё та. Что-то по крупицам удалось выковырять с официального форума. Спешу поделиться.

  1. Если косячит веб-интерфейс, выдает ошибки 401 и 500, не дает залогиниться. Apache матерится и не стартует. Скорее всего, нужно заново сгенерировать приватные ключи и сертификаты.
    pvecm updatecerts
    Если что, там есть ещё ключик "--force" для совсем тяжелых случаев. После этого требуется рестартовать службы pvedaemon и apache2.
  2. Если нужно откатиться к "дефолтной" конфигурации. Например, развалить неудачно построенный кластер (штатным способом сделать этого нельзя).
    Остановить службу cman
    Остановить службу pve-cluster
    pmxcfs -l
    rm /etc/cluster/cluster.conf
    rm -rf /var/lib/pve-cluster/*
    rm /var/lib/cluster/*
    rm /var/lib/corosync/*
    rm -rf /etc/pve/*
    Снова остановить службу pve-cluster, убедиться что процесс pmxcfs сдох.
    Запустить pve-cluster
    Запустить cman
    Далее смотри пункт 1. Шаманство ещё то, блин. И да, разумеется конфиги всех виртуалок перед этими манипуляциями нужно обязательно забэкапить. Как вариант, можно грохнуть не весь /etc/pve, а только папку nodes и всё что внутри. Но тут как повезёт. Может, и прокатит.
  3. Разумеется, у вас в настройках ssh должны быть включены
    PermitRootLogin yes
    PubkeyAuthentication yes
    AuthorizedKeysFile      %h/.ssh/authorized_keys
    Сам смотрю на это безобразие и плАчу горькими слезами. А что делать? Только FireWall-ом закрывать.
  4. Перед построением кластера следует обязательно проверить содержимое /etc/hostname и /etc/hosts. Именно на их основании утилиты принимают решение о том, на каком интерфейсе поднимать соответствующие службы. И если машина multihomed и ты случайно инициировал кластер не на том интерфейсе, то потом начинается тако-о-о-ой геморрой чтобы всё раздерибанить, а потом собрать заново... Смотри пункт 2.
  5. Иногда там начинает кривить fencing, и тогда самый простой способ вылечить — перезагрузка. Смешно, факт.

Короче говоря, ProxMox хоть и бесплатен, но безобразен. И чем дальше, тем чудесатее и чудесатее. На первое время и для решения простеньких задач оно вполне пойдет. Для начинающего сисадмина, делающего свои первые шаги в виртуализации, тоже годное решение. Но для серьезного production — увольте.

Теперь вот сижу и мучительно размышляю, куда бы с энтого ProxMox-а свалить. Как всегда, хочется чтобы система была простой в обращении, умела автоматизированные backup-ы, Live Migration, High Availability и имела красивую веб-морду. Изучаю список совместимых с KVM фронтендов в количестве 30 штук. Он повергает меня в уныние.

 

источник: http://klink0v.livejournal.com/27626.html

ссылка на материал: http://thin.kiev.ua/categoryblog/733-proxmox-2.html

{jcomments on}

Последнее обновление 09.01.13 11:12
 
ПРОБРОС USB УСТРОЙСТВ В PROXMOX VE KVM PDF Печать E-mail
09.01.13 11:08

ПРОБРОС USB УСТРОЙСТВ В PROXMOX VE KVM

 

Весь интернет облазил в посках, а ответ оказался так близко – в man qm

# lsusb 
Bus 001 Device 004: ID 21dd:2112 Kingston Technology
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 002 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

# qm set 102 –usb0 host=21dd:2112

 

источник: http://www.doless.ru/probros-usb-ustrojstv-v-proxmox-ve-kvm.html

 
Перевод дисков после инсталляции Proxmox VE в RAID1 (mirror) PDF Печать E-mail
09.01.13 11:01

В повседневной работе появилась привычка резервировать данные. Обязательно RAID 1 (зеркало), резервное копирование. После установки Proxmox VE в дефолтном режиме, но с двумя дисками — было обнаружено что система разметила и использует только один диск, что неприемлемо. Ниже приведёно краткое руководство по переводу разделов диска в режим RAID 1. Итак, приступим (данное руководство делалось для версии 1.5 со стандартным ядром).

Установить Proxmox только на один первый диск (/dev/sda).

Доустановить необходимые пакеты для работы с RAID, создания рамдиска с драйверами:

aptitude install mdadm initramfs-tools parted screen

Загрузить модуль raid1:

modprobe raid1

Разметить второй диск (/dev/sdb) примерно так:

Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          52      417658+  fd  Linux raid autodetect
/dev/sdb2              53      121601   976342342+  fd  Linux raid autodetect

Т. е. первый раздел под /boot — 400-500 Mb, остальное под второй раздел для LVM (данный раздел не должен быть меньше используемого на первом диске).

Далее создаются RAID-разделы с использованием пока только второго диска:

mdadm --create /dev/md0 --metadata=0.90 --level=1 --raid-devices=2 missing /dev/sdb1
mdadm --create /dev/md1 --level=1 --raid-devices=2 missing /dev/sdb2
mdadm --detail --scan >> /etc/mdadm/mdadm.conf

Создать резервную копию и пересоздать initrd:

cp -f /boot/initrd.img-`uname -r` /boot/initrd.img-`uname -r`~
mkinitramfs -o /boot/initrd.img-`uname -r` -r /dev/mapper/pve-root

Теперь нужно создать LVM-раздел на втором диске, добавить его в группу pve, переместить данные с LVM-раздела первого диска, на RAID-LVM-раздел второго диска, убрать из LVM первый диск (pvmove занимает длительное время, следующий набор операций лучше запускать в screen, чтобы процесс не прервался, если вы подключены к серверу удалённо):

pvcreate /dev/md1
vgextend pve /dev/md1
pvmove /dev/sda2 /dev/md1
vgreduce pve /dev/sda2

Теперь нужно подготовить RAID-раздел второго диска, скопировать на него /boot:

mkfs.ext3 /dev/md0
mkdir /mnt/md0
mount /dev/md0 /mnt/md0
cp -ax /boot/* /mnt/md0
umount /mnt/md0
rmdir /mnt/md0

Исправить /etc/fstab, поменять запись о /boot так, чтобы она указывала на RAID-раздел:

/dev/md0 /boot ext3 defaults 0 1

Можно перемонтировать /boot:

umount /boot
mount /boot

Переразметить первый диск в соответствии со вторым (предварительно нужно удалить все разделы с /dev/sda):

parted /dev/sda rm 2
parted /dev/sda rm 1
sfdisk -d /dev/sdb | sfdisk /dev/sda

Теперь можно добавлять в RAID-массивы разделы первого диска:

mdadm --add /dev/md0 /dev/sda1
mdadm --add /dev/md1 /dev/sda2

Нужно подождать пока RAID синхронизируется, контролировать процесс можно при помощи такой команды (на больших разделах данный процесс может занять много времени):

watch -n 1 "cat /proc/mdstat"

Теперь нужно переинсталировать загрузчик (GRUB) на обоих дисках (для grub, с grub2 данныяй метод не работает, смотри ниже):

grub
> find /grub/stage1
find /grub/stage1
(hd0,0)
(hd1,0)
> root (hd0,0)
> setup (hd0)
> root (hd1,0)
> setup (hd1)
> quit

Для grub2:

grub-install /dev/sda
grub-install /dev/sdb

Всё, система работает на RAID1 (зеркале).

 

источник: http://ras.pl.ua/proxmox_raid1_howto

ссылка на материал: http://thin.kiev.ua/categoryblog/731-proxmox-ve-raid1.html

{jcomments on}

Последнее обновление 09.01.13 11:08
 
« НачалоПредыдущая12345678910СледующаяПоследняя »

Страница 7 из 14

bottom

 

Unreal Commander PfSense по русски Яндекс.Метрика