Public:Proxmox — различия между версиями

Материал из Linkintel wiki
Перейти к: навигация, поиск
(Новая страница: «== Эксплуатационные примечаия == === Резервирование === Резервное копирование - если операц…»)
 
(Эксплуатационные примечаия)
 
(не показаны 4 промежуточные версии этого же участника)
Строка 1: Строка 1:
== Эксплуатационные примечаия ==
+
== Эксплуатационные примечания ==
  
 
=== Резервирование ===
 
=== Резервирование ===
  
Резервное копирование - если операцию прервать, в /var/backup/dump остается файлик с расширением .dat, который надо удалить руками (вероятно, наличие достаточно большого количества таких файликов - признак
+
Бэкапы сохраняются на диск backup'a подцепленный по NFS(Датацентр > Хранилище).
проблем с сохранением бэкапов).
 
  
Там же плодятся (но не трутся) файлы с расширением .log. Они маленькие (в килобайтах), но замедляют просмотр директории. Я их тру через год (руками).
+
Папка с бэкапами: backup:/var/vmbackup/dump или vm:/mnt/pve/backup/dump.
  
В двух словах о процессе бэкапа.
+
Во время резервного копирования создается файл с расширением .dat и папка .tmp, если бэкап прерывается(не единственная причина), то они так и останутся в папке, их нужно тереть руками, но с большой вероятностью ошибки попадут в лог и мы узнаем об этом из zabbix'a.
Расписание настраивается через интерфейс (Датацентр > Резервирование). Во время бэкапа вызывается скрипт (/usr/local/bin/vzdump-hook-script.pl) который монтирует диск для бэкапов, указывается он в конфиге бэкапа (/etc/vzdump.conf).
+
 
Подробнее о бэкапе в документации: https://pve.proxmox.com/pve-docs/chapter-vzdump.html
+
Расписание настраивается через интерфейс (Датацентр > Резервирование). Дополнительные настройки можно указать в конфиге бэкапа - /etc/vzdump.conf.
 +
Подробнее о бэкапе в документации: [https://pve.proxmox.com/pve-docs/chapter-vzdump.html vzdump]
  
 
=== Восстановление ===  
 
=== Восстановление ===  
  
Для того чтобы восстановить что-то, для начало нужно примонтировать диск (/usr/bin/sshfs -o uid=0,gid=0,nonempty proxmox@192.168.100.220:/var/vmbackup /var/backup), если он не примонтирован.  
+
Для того чтобы восстановить VM в веб-интерфейсе(Настройки VM > Резервирование) выбрать нужный файл бэкапа (если не видно нужного - очистить поле поиск) и нажать восстановить. <big>'''Важно!'''</big> выставлять ограничение по скорости (если идет процесс бекапа 5000, иначе 10000), чтобы избежать зависание всей ноды и как следствие vm'ок на ней. Во время бэеапа лучше ничего не восстанавливать во избежание зависаний.
 
Помимо веб-интерфейса для восстановления можно воспользоваться утилитой qmrestore: '''qmrestore <архив> <vmid>'''
 
Помимо веб-интерфейса для восстановления можно воспользоваться утилитой qmrestore: '''qmrestore <архив> <vmid>'''
Подробнее: https://pve.proxmox.com/pve-docs/qmrestore.1.html
+
Подробнее: [https://pve.proxmox.com/pve-docs/qmrestore.1.html qmrestore]
  
 
=== Миграция ===
 
=== Миграция ===
Строка 30: Строка 30:
 
Настройка пользователей через веб-интерфейс проста и понятна, а вот с управлением группами и их правами все немного сложнее (не понятно можно ли навешивать права группам через веб-интерфейс). Для того чтобы изменить права группы  
 
Настройка пользователей через веб-интерфейс проста и понятна, а вот с управлением группами и их правами все немного сложнее (не понятно можно ли навешивать права группам через веб-интерфейс). Для того чтобы изменить права группы  
  
Ссылка на документацию: [https://pve.proxmox.com/pve-docs/chapter-pveum.html]
+
Ссылка на документацию: [https://pve.proxmox.com/pve-docs/chapter-pveum.html pveum]
  
 
=== Проброс портов через консоль (usb) ===
 
=== Проброс портов через консоль (usb) ===

Текущая версия на 15:37, 12 февраля 2019

Эксплуатационные примечания

Резервирование

Бэкапы сохраняются на диск backup'a подцепленный по NFS(Датацентр > Хранилище).

Папка с бэкапами: backup:/var/vmbackup/dump или vm:/mnt/pve/backup/dump.

Во время резервного копирования создается файл с расширением .dat и папка .tmp, если бэкап прерывается(не единственная причина), то они так и останутся в папке, их нужно тереть руками, но с большой вероятностью ошибки попадут в лог и мы узнаем об этом из zabbix'a.

Расписание настраивается через интерфейс (Датацентр > Резервирование). Дополнительные настройки можно указать в конфиге бэкапа - /etc/vzdump.conf. Подробнее о бэкапе в документации: vzdump

Восстановление

Для того чтобы восстановить VM в веб-интерфейсе(Настройки VM > Резервирование) выбрать нужный файл бэкапа (если не видно нужного - очистить поле поиск) и нажать восстановить. Важно! выставлять ограничение по скорости (если идет процесс бекапа 5000, иначе 10000), чтобы избежать зависание всей ноды и как следствие vm'ок на ней. Во время бэеапа лучше ничего не восстанавливать во избежание зависаний. Помимо веб-интерфейса для восстановления можно воспользоваться утилитой qmrestore: qmrestore <архив> <vmid> Подробнее: qmrestore

Миграция

При live-миграция недоступна виртуалкам, у которых есть диски, подключенные с хранилища local или vmpool. Соответственно, чтобы такие виртуалки мигрировать, их диски нужно сначала перекинуть на хранилище cephssd, а потом уже переносить саму виртуалку. Проблема в том, что после переноса lvm-диска на ceph, в lvm раздел остается и при миграции машины (если ничего дополнительно не предпринимать) - тоже переливается, что жрёт время.

Управление пользователями

Конфигурационный файл: /etc/pve/user.cfg

Настройка пользователей через веб-интерфейс проста и понятна, а вот с управлением группами и их правами все немного сложнее (не понятно можно ли навешивать права группам через веб-интерфейс). Для того чтобы изменить права группы

Ссылка на документацию: pveum

Проброс портов через консоль (usb)

Поиск порта

Находим на каком порту нужное нам усртройство(выделено жирным) одним из способов:

-lsusb

   root@vm3:~# lsusb -t
   /:  Bus 06.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
   /:  Bus 05.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
       |__ Port 1: Dev 3, If 0, Class=Vendor Specific Class, Driver=usbfs, 12M
       |__ Port 2: Dev 2, If 0, Class=Human Interface Device, Driver=usbhid, 12M
       |__ Port 2: Dev 2, If 1, Class=Human Interface Device, Driver=usbhid, 12M
   /:  Bus 04.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
   /:  Bus 03.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M
   /:  Bus 02.Port 1: Dev 1, Class=root_hub, Driver=ehci-pci/4p, 480M
       |__ Port 3: Dev 5, If 0, Class=Mass Storage, Driver=usb-storage, 480M
       |__ Port 3: Dev 5, If 1, Class=Mass Storage, Driver=usb-storage, 480M
   /:  Bus 01.Port 1: Dev 1, Class=root_hub, Driver=ehci-pci/4p, 480M
       |__ Port 1: Dev 4, If 0, Class=Hub, Driver=hub/4p, 480M
           |__ Port 3: Dev 6, If 0, Class=Vendor Specific Class, Driver=usbfs, 12M
           |__ Port 1: Dev 5, If 0, Class=Hub, Driver=hub/4p, 480M
               |__ Port 3: Dev 8, If 0, Class=Printer, Driver=usbfs, 12M
               |__ Port 4: Dev 9, If 0, Class=(Defined at Interface level), Driver=usbfs, 1.5M
           |__ Port 4: Dev 7, If 1, Class=Human Interface Device, Driver=usbhid, 1.5M
           |__ Port 4: Dev 7, If 0, Class=Human Interface Device, Driver=usbhid, 1.5M
       |__ Port 3: Dev 3, If 0, Class=Hub, Driver=hub/3p, 480M

-qm monitor

   root@vm3:~# qm monitor <VM_ID>
   qm> info usbhost
     Bus 2, Addr 5, Port 3, Speed 480 Mb/s
       Class 00: USB device 0624:0249, USB Composite Device-1
     Bus 5, Addr 2, Port 2, Speed 12 Mb/s
       Class 00: USB device 0624:0248, USB Composite Device-0
     Bus 5, Addr 3, Port 1, Speed 12 Mb/s
       Class 00: USB device 0403:6001, USB <-> Serial
     Bus 1, Addr 7, Port 1.4, Speed 1.5 Mb/s
       Class 00: USB device 04b4:0501, P2-CIM-USB
     Bus 1, Addr 6, Port 1.3, Speed 12 Mb/s
       Class ff: USB device 0a89:0020, Rutoken S
     Bus 1, Addr 9, Port 1.1.4, Speed 1.5 Mb/s
       Class ff: USB device 0403:c631, i2c-tiny-usb
     Bus 1, Addr 8, Port 1.1.3, Speed 12 Mb/s
       Class 00: USB device 0485:7541, Generic Bulk Device
   qm>
  • <VM_ID> - идентификатор виртуальной машины.
  • выход из интерфейса qm monitor - комада q или quit

Добавляем устройство в VM

Редактируем файл конфигурации /etc/pve/qemu-server/<VM_ID>.conf - добавляем запись вида:

   usb0: host=Bus-Port

Например:

   usb0: host=1-1.1.4

Останавливаем и запускаем VM

Останвливаем и запускаем VM (reboot'a недостаточно)

   qm stop <VM_ID>
   qm start <VM_ID>

Проверяем, что VM видит устройство

   root@vm3:~# qm monitor <VM_ID>
   qm> info usb
     Device 0.2, Port 1, Speed 12 Mb/s, Product QEMU USB Tablet, ID: tablet
     Device 1.2, Port 1, Speed 1.5 Mb/s, Product i2c-tiny-usb, ID: usb0
     Device 1.3, Port 2, Speed 12 Mb/s, Product Generic Bulk Device, ID: usb1
   qm>