Public:Proxmox — различия между версиями

Материал из Linkintel wiki
Перейти к: навигация, поиск
м (Paulr переименовал страницу Proxmox в Public:Proxmox)
(Резервирование)
Строка 10: Строка 10:
 
В двух словах о процессе бэкапа.
 
В двух словах о процессе бэкапа.
 
Расписание настраивается через интерфейс (Датацентр > Резервирование). Во время бэкапа вызывается скрипт (/usr/local/bin/vzdump-hook-script.pl) который монтирует диск для бэкапов, указывается он в конфиге бэкапа (/etc/vzdump.conf).
 
Расписание настраивается через интерфейс (Датацентр > Резервирование). Во время бэкапа вызывается скрипт (/usr/local/bin/vzdump-hook-script.pl) который монтирует диск для бэкапов, указывается он в конфиге бэкапа (/etc/vzdump.conf).
Подробнее о бэкапе в документации: https://pve.proxmox.com/pve-docs/chapter-vzdump.html
+
Подробнее о бэкапе в документации: [https://pve.proxmox.com/pve-docs/chapter-vzdump.html vzdump]
  
 
=== Восстановление ===  
 
=== Восстановление ===  

Версия 15:11, 11 января 2019

Эксплуатационные примечаия

Резервирование

Резервное копирование - если операцию прервать, в /var/backup/dump остается файлик с расширением .dat, который надо удалить руками (вероятно, наличие достаточно большого количества таких файликов - признак проблем с сохранением бэкапов).

Там же плодятся (но не трутся) файлы с расширением .log. Они маленькие (в килобайтах), но замедляют просмотр директории. Я их тру через год (руками).

В двух словах о процессе бэкапа. Расписание настраивается через интерфейс (Датацентр > Резервирование). Во время бэкапа вызывается скрипт (/usr/local/bin/vzdump-hook-script.pl) который монтирует диск для бэкапов, указывается он в конфиге бэкапа (/etc/vzdump.conf). Подробнее о бэкапе в документации: vzdump

Восстановление

Для того чтобы восстановить что-то, для начало нужно примонтировать диск (/usr/bin/sshfs -o uid=0,gid=0,nonempty proxmox@192.168.100.220:/var/vmbackup /var/backup), если он не примонтирован. Помимо веб-интерфейса для восстановления можно воспользоваться утилитой qmrestore: qmrestore <архив> <vmid> Подробнее: https://pve.proxmox.com/pve-docs/qmrestore.1.html

Миграция

При live-миграция недоступна виртуалкам, у которых есть диски, подключенные с хранилища local или vmpool. Соответственно, чтобы такие виртуалки мигрировать, их диски нужно сначала перекинуть на хранилище cephssd, а потом уже переносить саму виртуалку. Проблема в том, что после переноса lvm-диска на ceph, в lvm раздел остается и при миграции машины (если ничего дополнительно не предпринимать) - тоже переливается, что жрёт время.

Управление пользователями

Конфигурационный файл: /etc/pve/user.cfg

Настройка пользователей через веб-интерфейс проста и понятна, а вот с управлением группами и их правами все немного сложнее (не понятно можно ли навешивать права группам через веб-интерфейс). Для того чтобы изменить права группы

Ссылка на документацию: [1]

Проброс портов через консоль (usb)

Поиск порта

Находим на каком порту нужное нам усртройство(выделено жирным) одним из способов:

-lsusb

   root@vm3:~# lsusb -t
   /:  Bus 06.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
   /:  Bus 05.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
       |__ Port 1: Dev 3, If 0, Class=Vendor Specific Class, Driver=usbfs, 12M
       |__ Port 2: Dev 2, If 0, Class=Human Interface Device, Driver=usbhid, 12M
       |__ Port 2: Dev 2, If 1, Class=Human Interface Device, Driver=usbhid, 12M
   /:  Bus 04.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
   /:  Bus 03.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
   /:  Bus 02.Port 1: Dev 1, Class=root_hub, Driver=ehci-pci/4p, 480M
       |__ Port 3: Dev 5, If 0, Class=Mass Storage, Driver=usb-storage, 480M
       |__ Port 3: Dev 5, If 1, Class=Mass Storage, Driver=usb-storage, 480M
   /:  Bus 01.Port 1: Dev 1, Class=root_hub, Driver=ehci-pci/4p, 480M
       |__ Port 1: Dev 4, If 0, Class=Hub, Driver=hub/4p, 480M
           |__ Port 3: Dev 6, If 0, Class=Vendor Specific Class, Driver=usbfs, 12M
           |__ Port 1: Dev 5, If 0, Class=Hub, Driver=hub/4p, 480M
               |__ Port 3: Dev 8, If 0, Class=Printer, Driver=usbfs, 12M
               |__ Port 4: Dev 9, If 0, Class=(Defined at Interface level), Driver=usbfs, 1.5M
           |__ Port 4: Dev 7, If 1, Class=Human Interface Device, Driver=usbhid, 1.5M
           |__ Port 4: Dev 7, If 0, Class=Human Interface Device, Driver=usbhid, 1.5M
       |__ Port 3: Dev 3, If 0, Class=Hub, Driver=hub/3p, 480M

-qm monitor

   root@vm3:~# qm monitor <VM_ID>
   qm> info usbhost
     Bus 2, Addr 5, Port 3, Speed 480 Mb/s
       Class 00: USB device 0624:0249, USB Composite Device-1
     Bus 5, Addr 2, Port 2, Speed 12 Mb/s
       Class 00: USB device 0624:0248, USB Composite Device-0
     Bus 5, Addr 3, Port 1, Speed 12 Mb/s
       Class 00: USB device 0403:6001, USB <-> Serial
     Bus 1, Addr 7, Port 1.4, Speed 1.5 Mb/s
       Class 00: USB device 04b4:0501, P2-CIM-USB
     Bus 1, Addr 6, Port 1.3, Speed 12 Mb/s
       Class ff: USB device 0a89:0020, Rutoken S
     Bus 1, Addr 9, Port 1.1.4, Speed 1.5 Mb/s
       Class ff: USB device 0403:c631, i2c-tiny-usb
     Bus 1, Addr 8, Port 1.1.3, Speed 12 Mb/s
       Class 00: USB device 0485:7541, Generic Bulk Device
   qm>
  • <VM_ID> - идентификатор виртуальной машины.
  • выход из интерфейса qm monitor - комада q или quit

Добавляем устройство в VM

Редактируем файл конфигурации /etc/pve/qemu-server/<VM_ID>.conf - добавляем запись вида:

   usb0: host=Bus-Port

Например:

   usb0: host=1-1.1.4

Останавливаем и запускаем VM

Останвливаем и запускаем VM (reboot'a недостаточно)

   qm stop <VM_ID>
   qm start <VM_ID>

Проверяем, что VM видит устройство

   root@vm3:~# qm monitor <VM_ID>
   qm> info usb
     Device 0.2, Port 1, Speed 12 Mb/s, Product QEMU USB Tablet, ID: tablet
     Device 1.2, Port 1, Speed 1.5 Mb/s, Product i2c-tiny-usb, ID: usb0
     Device 1.3, Port 2, Speed 12 Mb/s, Product Generic Bulk Device, ID: usb1
   qm>