Public:Proxmox — различия между версиями
Paulr (обсуждение | вклад) м (Paulr переименовал страницу Proxmox в Public:Proxmox) |
Paulr (обсуждение | вклад) (→Эксплуатационные примечаия) |
||
(не показаны 3 промежуточные версии этого же участника) | |||
Строка 1: | Строка 1: | ||
− | == Эксплуатационные | + | == Эксплуатационные примечания == |
=== Резервирование === | === Резервирование === | ||
− | + | Бэкапы сохраняются на диск backup'a подцепленный по NFS(Датацентр > Хранилище). | |
− | |||
− | + | Папка с бэкапами: backup:/var/vmbackup/dump или vm:/mnt/pve/backup/dump. | |
− | + | Во время резервного копирования создается файл с расширением .dat и папка .tmp, если бэкап прерывается(не единственная причина), то они так и останутся в папке, их нужно тереть руками, но с большой вероятностью ошибки попадут в лог и мы узнаем об этом из zabbix'a. | |
− | Расписание настраивается через интерфейс (Датацентр > Резервирование). | + | |
− | Подробнее о бэкапе в документации: https://pve.proxmox.com/pve-docs/chapter-vzdump.html | + | Расписание настраивается через интерфейс (Датацентр > Резервирование). Дополнительные настройки можно указать в конфиге бэкапа - /etc/vzdump.conf. |
+ | Подробнее о бэкапе в документации: [https://pve.proxmox.com/pve-docs/chapter-vzdump.html vzdump] | ||
=== Восстановление === | === Восстановление === | ||
− | Для того чтобы восстановить | + | Для того чтобы восстановить VM в веб-интерфейсе(Настройки VM > Резервирование) выбрать нужный файл бэкапа (если не видно нужного - очистить поле поиск) и нажать восстановить. <big>'''Важно!'''</big> выставлять ограничение по скорости (если идет процесс бекапа 5000, иначе 10000), чтобы избежать зависание всей ноды и как следствие vm'ок на ней. Во время бэеапа лучше ничего не восстанавливать во избежание зависаний. |
Помимо веб-интерфейса для восстановления можно воспользоваться утилитой qmrestore: '''qmrestore <архив> <vmid>''' | Помимо веб-интерфейса для восстановления можно воспользоваться утилитой qmrestore: '''qmrestore <архив> <vmid>''' | ||
− | Подробнее: https://pve.proxmox.com/pve-docs/qmrestore.1.html | + | Подробнее: [https://pve.proxmox.com/pve-docs/qmrestore.1.html qmrestore] |
=== Миграция === | === Миграция === | ||
Строка 30: | Строка 30: | ||
Настройка пользователей через веб-интерфейс проста и понятна, а вот с управлением группами и их правами все немного сложнее (не понятно можно ли навешивать права группам через веб-интерфейс). Для того чтобы изменить права группы | Настройка пользователей через веб-интерфейс проста и понятна, а вот с управлением группами и их правами все немного сложнее (не понятно можно ли навешивать права группам через веб-интерфейс). Для того чтобы изменить права группы | ||
− | Ссылка на документацию: [https://pve.proxmox.com/pve-docs/chapter-pveum.html] | + | Ссылка на документацию: [https://pve.proxmox.com/pve-docs/chapter-pveum.html pveum] |
=== Проброс портов через консоль (usb) === | === Проброс портов через консоль (usb) === |
Текущая версия на 15:37, 12 февраля 2019
Содержание
Эксплуатационные примечания
Резервирование
Бэкапы сохраняются на диск backup'a подцепленный по NFS(Датацентр > Хранилище).
Папка с бэкапами: backup:/var/vmbackup/dump или vm:/mnt/pve/backup/dump.
Во время резервного копирования создается файл с расширением .dat и папка .tmp, если бэкап прерывается(не единственная причина), то они так и останутся в папке, их нужно тереть руками, но с большой вероятностью ошибки попадут в лог и мы узнаем об этом из zabbix'a.
Расписание настраивается через интерфейс (Датацентр > Резервирование). Дополнительные настройки можно указать в конфиге бэкапа - /etc/vzdump.conf. Подробнее о бэкапе в документации: vzdump
Восстановление
Для того чтобы восстановить VM в веб-интерфейсе(Настройки VM > Резервирование) выбрать нужный файл бэкапа (если не видно нужного - очистить поле поиск) и нажать восстановить. Важно! выставлять ограничение по скорости (если идет процесс бекапа 5000, иначе 10000), чтобы избежать зависание всей ноды и как следствие vm'ок на ней. Во время бэеапа лучше ничего не восстанавливать во избежание зависаний. Помимо веб-интерфейса для восстановления можно воспользоваться утилитой qmrestore: qmrestore <архив> <vmid> Подробнее: qmrestore
Миграция
При live-миграция недоступна виртуалкам, у которых есть диски, подключенные с хранилища local или vmpool. Соответственно, чтобы такие виртуалки мигрировать, их диски нужно сначала перекинуть на хранилище cephssd, а потом уже переносить саму виртуалку. Проблема в том, что после переноса lvm-диска на ceph, в lvm раздел остается и при миграции машины (если ничего дополнительно не предпринимать) - тоже переливается, что жрёт время.
Управление пользователями
Конфигурационный файл: /etc/pve/user.cfg
Настройка пользователей через веб-интерфейс проста и понятна, а вот с управлением группами и их правами все немного сложнее (не понятно можно ли навешивать права группам через веб-интерфейс). Для того чтобы изменить права группы
Ссылка на документацию: pveum
Проброс портов через консоль (usb)
Поиск порта
Находим на каком порту нужное нам усртройство(выделено жирным) одним из способов:
-lsusb
root@vm3:~# lsusb -t /: Bus 06.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M /: Bus 05.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M |__ Port 1: Dev 3, If 0, Class=Vendor Specific Class, Driver=usbfs, 12M |__ Port 2: Dev 2, If 0, Class=Human Interface Device, Driver=usbhid, 12M |__ Port 2: Dev 2, If 1, Class=Human Interface Device, Driver=usbhid, 12M /: Bus 04.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M /: Bus 03.Port 1: Dev 1, Class=root_hub, Driver=uhci_hcd/2p, 12M /: Bus 02.Port 1: Dev 1, Class=root_hub, Driver=ehci-pci/4p, 480M |__ Port 3: Dev 5, If 0, Class=Mass Storage, Driver=usb-storage, 480M |__ Port 3: Dev 5, If 1, Class=Mass Storage, Driver=usb-storage, 480M /: Bus 01.Port 1: Dev 1, Class=root_hub, Driver=ehci-pci/4p, 480M |__ Port 1: Dev 4, If 0, Class=Hub, Driver=hub/4p, 480M |__ Port 3: Dev 6, If 0, Class=Vendor Specific Class, Driver=usbfs, 12M |__ Port 1: Dev 5, If 0, Class=Hub, Driver=hub/4p, 480M |__ Port 3: Dev 8, If 0, Class=Printer, Driver=usbfs, 12M |__ Port 4: Dev 9, If 0, Class=(Defined at Interface level), Driver=usbfs, 1.5M |__ Port 4: Dev 7, If 1, Class=Human Interface Device, Driver=usbhid, 1.5M |__ Port 4: Dev 7, If 0, Class=Human Interface Device, Driver=usbhid, 1.5M |__ Port 3: Dev 3, If 0, Class=Hub, Driver=hub/3p, 480M
-qm monitor
root@vm3:~# qm monitor <VM_ID> qm> info usbhost Bus 2, Addr 5, Port 3, Speed 480 Mb/s Class 00: USB device 0624:0249, USB Composite Device-1 Bus 5, Addr 2, Port 2, Speed 12 Mb/s Class 00: USB device 0624:0248, USB Composite Device-0 Bus 5, Addr 3, Port 1, Speed 12 Mb/s Class 00: USB device 0403:6001, USB <-> Serial Bus 1, Addr 7, Port 1.4, Speed 1.5 Mb/s Class 00: USB device 04b4:0501, P2-CIM-USB Bus 1, Addr 6, Port 1.3, Speed 12 Mb/s Class ff: USB device 0a89:0020, Rutoken S Bus 1, Addr 9, Port 1.1.4, Speed 1.5 Mb/s Class ff: USB device 0403:c631, i2c-tiny-usb Bus 1, Addr 8, Port 1.1.3, Speed 12 Mb/s Class 00: USB device 0485:7541, Generic Bulk Device qm>
- <VM_ID> - идентификатор виртуальной машины.
- выход из интерфейса qm monitor - комада q или quit
Добавляем устройство в VM
Редактируем файл конфигурации /etc/pve/qemu-server/<VM_ID>.conf - добавляем запись вида:
usb0: host=Bus-Port
Например:
usb0: host=1-1.1.4
Останавливаем и запускаем VM
Останвливаем и запускаем VM (reboot'a недостаточно)
qm stop <VM_ID> qm start <VM_ID>
Проверяем, что VM видит устройство
root@vm3:~# qm monitor <VM_ID> qm> info usb Device 0.2, Port 1, Speed 12 Mb/s, Product QEMU USB Tablet, ID: tablet Device 1.2, Port 1, Speed 1.5 Mb/s, Product i2c-tiny-usb, ID: usb0 Device 1.3, Port 2, Speed 12 Mb/s, Product Generic Bulk Device, ID: usb1 qm>