top
logo


Категория - FAQ/Общие вопросы
Ускоряем бекап в Proxmox VE 2 PDF Печать E-mail
09.01.13 11:15

Ускоряем бекап в Proxmox VE 2

 

Наткнулся тут на форуме Proxmox на интересный хак (http://forum.proxmox.com/threads/5967-Speed-up-vzdump-using-pigz)

Простым копипастом в консоль рута этакий многострочник
aptitude install -y pigz && \
cat >> /bin/pigzwrapper << EOF00
#!/bin/sh
PATH=\${GZIP_BINDIR-'/bin'}:\$PATH
GZIP="-1"
exec /usr/bin/pigz -p 4 "\$@"
EOF00
&& \
chmod 755 /bin/pigzwrapper && mv /bin/gzip /bin/gzip.original && cp /bin/pigzwrapper /bin/gzip

И меняем во всех бекапных планах метод сжатия на gzip

Всем пока

ЗЫ
Забыл сказать в этой строке укажите кол-во ваших процессоров (про гипертрейдинг не забудьте)
exec /usr/bin/pigz -p 4 , у меня двух процессорный сервер, с гипертрейдингом получается 4

ЗЫ2 само собой при бекапе выбираем метод GZIP несмотря что он slow

 

источник: http://www.openkazan.info/node/5822

Последнее обновление 09.01.13 11:17
 
ProxMox 2: в два раза кривее PDF Печать E-mail
09.01.13 11:10

Так уж исторически сложилось, что мне по наследству достались production-системы, построенные на базе ProxMox VE. Хоть разработчики гордо утверждают, что это "самостоятельный продукт с огромным community", но по факту это просто красивая веб-морда для OpenVZ+KVM с набором удобных утилит.

Как известно, опыт системного администратора растёт прямо пропорционально количеству испорченного оборудования. По мере хождения по граблям выяснилось следующее.

I. Касательно OpenVZ

  • OpenVZ можно использовать только для примитивных проектов уровня LAMP. Шаг вправо, шаг влево — kernel panic. А поскольку ядро там одно на всех, то последствия понятны.
  • В OpenVZ существует куча ограничений на используемые внутри контейнеров ресурсы. Например, нельзя "из коробки" без серьезных ухищрений примонтировать чужую CIFS или пользовать OpenVPN.
  • Реализация NFS в OpenVZ — это вообще из серии "понемногу средь багов нащупал дорогу".
  • При малейшем дуновении ветра под OpenVZ отказывается работать Live (online) Migration без объяснения причин.
  • В некоторых случаях OpenVZ-flavoured ядро улетает в Kernel Panic просто в момент банальной штатной остановки контейнера.

II. Касательно самого ProxMox 1.x

  • Если попытаться выкинуть кривое OpenVZ-ное ядро и пользовать "родное" Debian-овское чисто под KVM, то утилита бэкапа виртуалок vzdump отказывается работать под предлогом того, что не может получить из sysfs список VZ-контейнеров. И неважно, что тебя интересуют только KVM-ные виртуалки. Пофиг. Если хочешь автоматизированных бэкапов — будь добр ставить PVE-шное ядро, без вариантов. Ну или хакать Perl-овые модули компонентов ProxMox-а.
  • Забавно реализована миграция виртуалок между хостами. Она может происходить только посредством rsync поверх SSH. Получается что. К примеру, две крутых железки в одном датацентре соединены гигабитным шлангом. А скорость миграции максимум 40 МБайт/с. Почему? А всё упирается в SSH-шифрование, которое никак нельзя отключить и до кучи ещё и не распараллеливается между ядрами процессора.
  • Коммуникации между узлами "кластера" строятся на отсылке нодами друг другу команд через SSH. Всё бы ничего, но это делается из-под root-а с авторизацией по RSA keys. Безопасность такая безопасная...
  • Именование и зависимости DEB-пакетов выстроены настолько бездарно, что нормальным прямым способом на "чистую" уже готовую Debian-систему это не ставится. Только раком и через одно место. Вместе с тем "автоматический" инсталлятор "для чайников" ничего не спрашивая размечает жесткий диск так, что лучше бы он вообще этого не делал.

III. Касательно ProxMox 2.x

Ну там уж вообще как в анекдоте: "А потом приехал поручик Ржевский, и тут тако-о-о-ой разврат начался". Ребята-разработчики решили забубенить супер-мега кластер из адской помеси Corosync, SQLite3 и FUSE. Софт они взяли из Debian, ядро от RedHat. При этом им пришлось пересобрать часть Debian-пакетов; что-то они выдрали из тестируемой ветки в стабильную, что-то не мудрствуя лукаво стырили из backports. Молодцы, чо. Народ с хабра попробовал попользовать в этом коктейле какие-нибудь кластерные файловые системы типа OCFS и GFS. Не получилось. И я почему-то совсем не удивлён.

Самое же весёлое заключается в том, что вся эта радость ещё и ни хрена не задокументирована. Что... где... как... почему... куда копать... Всем желающим предлагается самостоятельно ковыряться в тонне Perl-овых скриптов чтобы разобраться как оно работает. Вот спасибо, добрые феи. Радость ещё та. Что-то по крупицам удалось выковырять с официального форума. Спешу поделиться.

  1. Если косячит веб-интерфейс, выдает ошибки 401 и 500, не дает залогиниться. Apache матерится и не стартует. Скорее всего, нужно заново сгенерировать приватные ключи и сертификаты.
    pvecm updatecerts
    Если что, там есть ещё ключик "--force" для совсем тяжелых случаев. После этого требуется рестартовать службы pvedaemon и apache2.
  2. Если нужно откатиться к "дефолтной" конфигурации. Например, развалить неудачно построенный кластер (штатным способом сделать этого нельзя).
    Остановить службу cman
    Остановить службу pve-cluster
    pmxcfs -l
    rm /etc/cluster/cluster.conf
    rm -rf /var/lib/pve-cluster/*
    rm /var/lib/cluster/*
    rm /var/lib/corosync/*
    rm -rf /etc/pve/*
    Снова остановить службу pve-cluster, убедиться что процесс pmxcfs сдох.
    Запустить pve-cluster
    Запустить cman
    Далее смотри пункт 1. Шаманство ещё то, блин. И да, разумеется конфиги всех виртуалок перед этими манипуляциями нужно обязательно забэкапить. Как вариант, можно грохнуть не весь /etc/pve, а только папку nodes и всё что внутри. Но тут как повезёт. Может, и прокатит.
  3. Разумеется, у вас в настройках ssh должны быть включены
    PermitRootLogin yes
    PubkeyAuthentication yes
    AuthorizedKeysFile      %h/.ssh/authorized_keys
    Сам смотрю на это безобразие и плАчу горькими слезами. А что делать? Только FireWall-ом закрывать.
  4. Перед построением кластера следует обязательно проверить содержимое /etc/hostname и /etc/hosts. Именно на их основании утилиты принимают решение о том, на каком интерфейсе поднимать соответствующие службы. И если машина multihomed и ты случайно инициировал кластер не на том интерфейсе, то потом начинается тако-о-о-ой геморрой чтобы всё раздерибанить, а потом собрать заново... Смотри пункт 2.
  5. Иногда там начинает кривить fencing, и тогда самый простой способ вылечить — перезагрузка. Смешно, факт.

Короче говоря, ProxMox хоть и бесплатен, но безобразен. И чем дальше, тем чудесатее и чудесатее. На первое время и для решения простеньких задач оно вполне пойдет. Для начинающего сисадмина, делающего свои первые шаги в виртуализации, тоже годное решение. Но для серьезного production — увольте.

Теперь вот сижу и мучительно размышляю, куда бы с энтого ProxMox-а свалить. Как всегда, хочется чтобы система была простой в обращении, умела автоматизированные backup-ы, Live Migration, High Availability и имела красивую веб-морду. Изучаю список совместимых с KVM фронтендов в количестве 30 штук. Он повергает меня в уныние.

 

источник: http://klink0v.livejournal.com/27626.html

ссылка на материал: http://thin.kiev.ua/categoryblog/733-proxmox-2.html

{jcomments on}

Последнее обновление 09.01.13 11:12
 
ПРОБРОС USB УСТРОЙСТВ В PROXMOX VE KVM PDF Печать E-mail
09.01.13 11:08

ПРОБРОС USB УСТРОЙСТВ В PROXMOX VE KVM

 

Весь интернет облазил в посках, а ответ оказался так близко – в man qm

# lsusb 
Bus 001 Device 004: ID 21dd:2112 Kingston Technology
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 002 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub

# qm set 102 –usb0 host=21dd:2112

 

источник: http://www.doless.ru/probros-usb-ustrojstv-v-proxmox-ve-kvm.html

 
Перевод дисков после инсталляции Proxmox VE в RAID1 (mirror) PDF Печать E-mail
09.01.13 11:01

В повседневной работе появилась привычка резервировать данные. Обязательно RAID 1 (зеркало), резервное копирование. После установки Proxmox VE в дефолтном режиме, но с двумя дисками — было обнаружено что система разметила и использует только один диск, что неприемлемо. Ниже приведёно краткое руководство по переводу разделов диска в режим RAID 1. Итак, приступим (данное руководство делалось для версии 1.5 со стандартным ядром).

Установить Proxmox только на один первый диск (/dev/sda).

Доустановить необходимые пакеты для работы с RAID, создания рамдиска с драйверами:

aptitude install mdadm initramfs-tools parted screen

Загрузить модуль raid1:

modprobe raid1

Разметить второй диск (/dev/sdb) примерно так:

Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          52      417658+  fd  Linux raid autodetect
/dev/sdb2              53      121601   976342342+  fd  Linux raid autodetect

Т. е. первый раздел под /boot — 400-500 Mb, остальное под второй раздел для LVM (данный раздел не должен быть меньше используемого на первом диске).

Далее создаются RAID-разделы с использованием пока только второго диска:

mdadm --create /dev/md0 --metadata=0.90 --level=1 --raid-devices=2 missing /dev/sdb1
mdadm --create /dev/md1 --level=1 --raid-devices=2 missing /dev/sdb2
mdadm --detail --scan >> /etc/mdadm/mdadm.conf

Создать резервную копию и пересоздать initrd:

cp -f /boot/initrd.img-`uname -r` /boot/initrd.img-`uname -r`~
mkinitramfs -o /boot/initrd.img-`uname -r` -r /dev/mapper/pve-root

Теперь нужно создать LVM-раздел на втором диске, добавить его в группу pve, переместить данные с LVM-раздела первого диска, на RAID-LVM-раздел второго диска, убрать из LVM первый диск (pvmove занимает длительное время, следующий набор операций лучше запускать в screen, чтобы процесс не прервался, если вы подключены к серверу удалённо):

pvcreate /dev/md1
vgextend pve /dev/md1
pvmove /dev/sda2 /dev/md1
vgreduce pve /dev/sda2

Теперь нужно подготовить RAID-раздел второго диска, скопировать на него /boot:

mkfs.ext3 /dev/md0
mkdir /mnt/md0
mount /dev/md0 /mnt/md0
cp -ax /boot/* /mnt/md0
umount /mnt/md0
rmdir /mnt/md0

Исправить /etc/fstab, поменять запись о /boot так, чтобы она указывала на RAID-раздел:

/dev/md0 /boot ext3 defaults 0 1

Можно перемонтировать /boot:

umount /boot
mount /boot

Переразметить первый диск в соответствии со вторым (предварительно нужно удалить все разделы с /dev/sda):

parted /dev/sda rm 2
parted /dev/sda rm 1
sfdisk -d /dev/sdb | sfdisk /dev/sda

Теперь можно добавлять в RAID-массивы разделы первого диска:

mdadm --add /dev/md0 /dev/sda1
mdadm --add /dev/md1 /dev/sda2

Нужно подождать пока RAID синхронизируется, контролировать процесс можно при помощи такой команды (на больших разделах данный процесс может занять много времени):

watch -n 1 "cat /proc/mdstat"

Теперь нужно переинсталировать загрузчик (GRUB) на обоих дисках (для grub, с grub2 данныяй метод не работает, смотри ниже):

grub
> find /grub/stage1
find /grub/stage1
(hd0,0)
(hd1,0)
> root (hd0,0)
> setup (hd0)
> root (hd1,0)
> setup (hd1)
> quit

Для grub2:

grub-install /dev/sda
grub-install /dev/sdb

Всё, система работает на RAID1 (зеркале).

 

источник: http://ras.pl.ua/proxmox_raid1_howto

ссылка на материал: http://thin.kiev.ua/categoryblog/731-proxmox-ve-raid1.html

{jcomments on}

Последнее обновление 09.01.13 11:08
 
PicoPSU PDF Печать E-mail
02.01.13 15:34

PicoPSU-150-XT 150W с блоком питания на 150W.

 

Блок питания для компьютеров с малым потреблением

 


 

 

 

ссылка на материал: http://thin.kiev.ua/categoryblog/728-picopsu.html

 

{jcomments on}

Последнее обновление 02.01.13 15:43
 
« НачалоПредыдущая11121314151617181920СледующаяПоследняя »

Страница 12 из 25

bottom

 

Unreal Commander PfSense по русски Яндекс.Метрика