Proxmox¶
- Proxmox тюнинг zfs
- QEMU Guest Agent for FreeBSD
- Копирование дисков на другой хост gzip
- Миграция VM с ESXI на Proxmox c LVM
- Настройка DM-Multipath
- Настройка восстановление и удаление кластера Proxmox
- Первоначальная настройка
nfs:
zfs set sharenfs="no_root_squash,rw=@192.168.14.0/24" data/share
Time Synchronization¶
File /etc/systemd/timesyncd.conf
[Time] NTP=ntp1.example.com ntp2.example.com ntp3.example.com ntp4.example.com
After restarting the synchronization service (systemctl restart systemd-timesyncd) you should verify that your newly configured NTP servers are used by checking the journal (journalctl --since -1h -u systemd-timesyncd)
Кластер¶
# stop service systemctl stop pvestatd.service systemctl stop pvedaemon.service systemctl stop pve-cluster.service # edit through sqlite, check, delete, verify sqlite3 /var/lib/pve-cluster/config.db select * from tree where name = 'corosync.conf'; delete from tree where name = 'corosync.conf'; select * from tree where name = 'corosync.conf'; .quit # start service systemctl start pve-cluster.service systemctl start pvestatd.service systemctl start pvedaemon.service
ZFS¶
zfs set atime=off rpool zfs set compression=lz4 rpool zfs set dedup=off rpool zfs set snapdir=visible rpool zfs set primarycache=all rpool zfs set aclinherit=passthrough rpool zfs inherit acltype rpool zfs get -r acltype rpool zfs get all rpool | grep compressratio zfs set atime=off data zfs set compression=lz4 data zfs set dedup=off data zfs set snapdir=visible data zfs set primarycache=all data zfs set aclinherit=passthrough data zfs inherit acltype data zfs get -r acltype data zfs get all data | grep compressratio
# ZFS RAID10 kraftway root@proxmox-kraft-02:/data/data# dd if=/dev/zero of=test count=10000000 10000000+0 records in 10000000+0 records out 5120000000 bytes (5.1 GB, 4.8 GiB) copied, 109.459 s, 46.8 MB/s # ZFS RAID10 kraftway root@proxmox-kraft-04:/data/data# dd if=/dev/zero of=test count=10000000 10000000+0 records in 10000000+0 records out 5120000000 bytes (5.1 GB, 4.8 GiB) copied, 95.8309 s, 53.4 MB/s # ZFS NO RAID SSD [00:04][root@asus:~]#dd if=/dev/zero of=test count=10000000 10000000+0 records in 10000000+0 records out 5120000000 bytes transferred in 175.408514 secs (29189005 bytes/sec) # ZFS RAID5 vm [00:06][root@mx:vmail]#dd if=/dev/zero of=test count=10000000 10000000+0 records in 10000000+0 records out 5120000000 bytes transferred in 82.510525 secs (62052689 bytes/sec) # UFS RAID10 vm [root@drweb ~]# dd if=/dev/zero of=test count=10000000 10000000+0 records in 10000000+0 records out 5120000000 bytes transferred in 30.483297 secs (167960837 bytes/sec) # EXT4 RAID10 kraftway root@proxmox-kraft-01:/mnt/pve/data# dd if=/dev/zero of=test count=10000000 10000000+0 records in 10000000+0 records out 5120000000 bytes (5.1 GB, 4.8 GiB) copied, 47.5769 s, 108 MB/s
Mode 0 (balance-rr) Round robin (карусельная) Передача пакетов происходит последовательно от первого к последнему участвующим сетевым интерфейсам. Это предоставляет балансировку нагрузки и устойчивость к отказам. Mode 1 (active-backup) Active backup (активное резервное копирование) Только один участвующий интерфейс является активным. Следующий интерфейс становится активным при отказе предыдущего. Это предоставляет только устойчивость к отказам. Mode 2 (balance-xor) XOR (исключающее ИЛИ) Этот режим выбирает один и тот же интерфейс участника для каждого адреса MAC получателя. Передача имеет место на основе сцепленных сетевых интерфейсов адресов MAC, сравнивающихся по исключающему ИЛИ с адресом MAC получателя. Это предоставляет и балансировку нагрузки, и устойчивость к отказам. Mode 3 (broadcast) Broadcast (широковещательная) Передача осуществляется по всем участвующим в сцеплении сетевым интерфейсам. Это предоставляет только устойчивость к отказам. Mode 4 (802.3ad) Динамичное соединение связей Все интерфейсы- участники в группе агрегации совместно используют одни и те же установки скорости и дуплекса. Все интерфейсы используются в соответствии со спецификацией 802.3ad. Необходим сетевой коммутатор с поддержкой 802.3ad или функциональностью LACP. Это предоставляет устойчивость к отказам. Mode 5 (balance-tlb) Балансировка нагрузки адаптивным обменом Исходящие пакеты распределяются согласно текущей нагрузке на каждом участвующем интерфейсе. Входящие пакеты принимаются текущим интерфейсом, а если этот интерфейс отказывает, тогда вступает в дело следующий интерфейс. Это предоставляет устойчивость к отказам и балансировку нагрузки только для исходящих пакетов. Mode 6 (balance-alb) Адаптивная балансировка нагрузки Аналогична balance-tlb с включением балансировки нагрузки входящих пакетов для всех интерфейсов.Это предоставляет устойчивость к отказам и балансировку нагрузки как для входящих, так и для исходящих пакетов.