Проект

Общее

Профиль

Proxmox

nfs:

zfs set sharenfs="no_root_squash,rw=@192.168.14.0/24" data/share

Time Synchronization

File /etc/systemd/timesyncd.conf

[Time]
NTP=ntp1.example.com ntp2.example.com ntp3.example.com ntp4.example.com

After restarting the synchronization service (systemctl restart systemd-timesyncd) you should verify that your newly configured NTP servers are used by checking the journal (journalctl --since -1h -u systemd-timesyncd)

Кластер

# stop service
systemctl stop pvestatd.service
systemctl stop pvedaemon.service
systemctl stop pve-cluster.service

# edit through sqlite, check, delete, verify
sqlite3 /var/lib/pve-cluster/config.db
select * from tree where name = 'corosync.conf';
delete from tree where name = 'corosync.conf';
select * from tree where name = 'corosync.conf';
.quit

# start service
systemctl start pve-cluster.service
systemctl start pvestatd.service
systemctl start pvedaemon.service

ZFS

zfs set atime=off rpool
zfs set compression=lz4 rpool
zfs set dedup=off rpool
zfs set snapdir=visible rpool
zfs set primarycache=all rpool
zfs set aclinherit=passthrough rpool
zfs inherit acltype rpool
zfs get -r acltype rpool
zfs get all rpool | grep compressratio

zfs set atime=off data
zfs set compression=lz4 data
zfs set dedup=off data
zfs set snapdir=visible data
zfs set primarycache=all data
zfs set aclinherit=passthrough data
zfs inherit acltype data
zfs get -r acltype data
zfs get all data | grep compressratio
# ZFS RAID10 kraftway
root@proxmox-kraft-02:/data/data# dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes (5.1 GB, 4.8 GiB) copied, 109.459 s, 46.8 MB/s

# ZFS RAID10 kraftway
root@proxmox-kraft-04:/data/data# dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes (5.1 GB, 4.8 GiB) copied, 95.8309 s, 53.4 MB/s

# ZFS NO RAID SSD
[00:04][root@asus:~]#dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes transferred in 175.408514 secs (29189005 bytes/sec)

# ZFS RAID5 vm
[00:06][root@mx:vmail]#dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes transferred in 82.510525 secs (62052689 bytes/sec)

# UFS RAID10 vm
[root@drweb ~]# dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes transferred in 30.483297 secs (167960837 bytes/sec)

# EXT4 RAID10 kraftway
root@proxmox-kraft-01:/mnt/pve/data# dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes (5.1 GB, 4.8 GiB) copied, 47.5769 s, 108 MB/s
Mode 0 (balance-rr) Round robin (карусельная)

Передача пакетов происходит последовательно от первого к последнему участвующим сетевым интерфейсам. Это предоставляет балансировку нагрузки и устойчивость к отказам.
Mode 1 (active-backup) Active backup (активное резервное копирование)

Только один участвующий интерфейс является активным. Следующий интерфейс становится активным при отказе предыдущего. Это предоставляет только устойчивость к отказам.
Mode 2 (balance-xor) XOR (исключающее ИЛИ)

Этот режим выбирает один и тот же интерфейс участника для каждого адреса MAC получателя. Передача имеет место на основе сцепленных сетевых интерфейсов адресов MAC, сравнивающихся по исключающему ИЛИ с адресом MAC получателя. Это предоставляет и балансировку нагрузки, и устойчивость к отказам.
Mode 3 (broadcast) Broadcast (широковещательная)

Передача осуществляется по всем участвующим в сцеплении сетевым интерфейсам. Это предоставляет только устойчивость к отказам.
Mode 4 (802.3ad) Динамичное соединение связей

Все интерфейсы- участники в группе агрегации совместно используют одни и те же установки скорости и дуплекса. Все интерфейсы используются в соответствии со спецификацией 802.3ad. Необходим сетевой коммутатор с поддержкой 802.3ad или функциональностью LACP. Это предоставляет устойчивость к отказам.
Mode 5 (balance-tlb) Балансировка нагрузки адаптивным обменом

Исходящие пакеты распределяются согласно текущей нагрузке на каждом участвующем интерфейсе. Входящие пакеты принимаются текущим интерфейсом, а если этот интерфейс отказывает, тогда вступает в дело следующий интерфейс. Это предоставляет устойчивость к отказам и балансировку нагрузки только для исходящих пакетов.
Mode 6 (balance-alb) Адаптивная балансировка нагрузки

Аналогична balance-tlb с включением балансировки нагрузки входящих пакетов для всех интерфейсов.Это предоставляет устойчивость к отказам и балансировку нагрузки как для входящих, так и для исходящих пакетов.