Czym jest klaster Proxmox VE
Klaster Proxmox to grupa serwerów z zainstalowanym Proxmox VE, które wspólnie zarządzają maszynami wirtualnymi. Zapewnia wysoką dostępność (HA), live migration, centralne zarządzanie i replikację konfiguracji. Klaster używa Corosync do synchronizacji stanu i pmxcfs (rozproszonego systemu plików) do replikacji konfiguracji w czasie rzeczywistym.
W praktyce klaster pozwala na:
- Migrację VM między fizycznymi serwerami bez wyłączania (live migration)
- Automatyczny restart VM na innym węźle po awarii sprzętu (HA)
- Centralne zarządzanie z dowolnego node-a (panel zarządzania pokazuje wszystkie VM)
- Replikację storage (z Ceph) lub współdzielenie (z NFS/iSCSI)
- Skalowanie horyzontalne — dodawanie kolejnych serwerów bez przerw w pracy
Wymagania klastra
Minimum sprzętowe
| Komponent | Minimum | Zalecane (produkcja) |
|---|---|---|
| Liczba węzłów | 3 (lub 2 + QDevice) | 3-7 dla małych firm, 5-15 dla większych |
| CPU | 4 rdzenie / węzeł | 16+ rdzeni / węzeł, jednolita architektura |
| RAM | 8 GB / węzeł | 64-256 GB / węzeł |
| Storage system | SSD 120 GB | NVMe 480 GB (mirror ZFS) |
| Sieć zarządzania | 1 Gbps | 10 Gbps (osobny VLAN) |
| Sieć corosync | 1 Gbps dedykowany link | 2 × 1 Gbps (link0+link1) lub 10 Gbps |
| Sieć storage (Ceph) | 10 Gbps | 25/40/100 Gbps + RDMA |
Wymagania sieciowe
Sieć jest często niedoceniana — to ona decyduje o stabilności klastra. Krytyczne parametry:
- Latency corosync < 5 ms (idealnie < 2 ms) — przekroczenie powoduje fencing węzła
- Jitter < 2 ms — niestabilność powoduje fałszywe wykrywanie awarii
- Brak utraty pakietów w sieci corosync — utrata 2 kolejnych = wyrzucenie z klastra
- Multicast lub unicast — w nowoczesnych deploymentach unicast (znacznie prostszy)
- Redundancja — link0 + link1 na różnych switchach (high availability sieci)
Konfiguracja klastra — krok po kroku
-
Zainstaluj Proxmox VE na każdym węźle
Pobierz ISO z proxmox.com/downloads, zbootuj na każdym serwerze. Wybierz ZFS (rpool) jako storage system — daje lokalną replikację i snapshoty. Po instalacji zaktualizuj system:
apt update && apt full-upgrade. -
Skonfiguruj sieć dedykowaną corosync
Dodaj drugi interfejs (np. eno2) w trybie bridge (vmbr1) na osobnym VLAN. Przykład w
/etc/network/interfaces:auto vmbr1 iface vmbr1 inet static address 10.10.10.11/24 bridge-ports eno2 bridge-stp off bridge-fd 0 mtu 9000 # jumbo frames jeśli switch obsługujePowtórz na każdym węźle z odpowiednim IP (10.10.10.11/12/13).
-
Utwórz klaster na pierwszym węźle
# Na node1 pvecm create produkcja01 -link0 10.10.10.11 # Weryfikacja pvecm statusWynik:
Quorate: Yes,Total votes: 1(na razie sam). -
Dołącz pozostałe węzły
# Na node2 (i node3) pvecm add 10.10.10.11 -link0 10.10.10.12 # node2 pvecm add 10.10.10.11 -link0 10.10.10.13 # node3 # Po każdym add: pvecm status # Total votes powinno rosnąćPo dodaniu 3. węzła
Total votes: 3,Quorate: Yes— klaster działa. -
Skonfiguruj HA Manager (dla automatycznego restartu VM po awarii)
W panelu webowym: Datacenter → HA → Groups → Create. Wybierz węzły dla danej grupy. Następnie Datacenter → HA → Resources → Add → wybierz VM/CT. Stan:
ha-manager status. -
Dodaj shared storage (NFS, iSCSI lub Ceph)
Dla małych klastrów: NFS share z 4. serwera lub NAS. Dla średnich/dużych: Ceph hyperconverged (na tych samych węzłach). Konfiguracja Ceph:
pveceph install,pveceph init --network 10.10.20.0/24,pveceph mon createna 3 węzłach,pveceph osd create /dev/sdXdla każdego dysku Ceph. -
Test failover — symulacja awarii
# Na node1 z HA-managed VM qm set 100 --ha 1 # włącz HA dla VM 100 shutdown -h now # symuluj awarię node1 # Z node2 obserwuj (po ~2 min) ha-manager status # VM 100 powinno zmienić node na node2/node3VM zostanie automatycznie zrestartowana na innym węźle. To dowód że HA działa.
Klaster vs HA vs Ceph — co to jest co
| Pojęcie | Co robi | Wymaga |
|---|---|---|
| Klaster Proxmox | Grupowanie serwerów + centralne zarządzanie + replikacja konfiguracji | 3+ węzły, sieć corosync |
| HA (High Availability) | Automatyczny restart VM na innym węźle po awarii | Klaster + shared storage |
| Live migration | Przeniesienie działającej VM bez wyłączania | Klaster + shared storage (lub ZFS replikacja) |
| Ceph | Rozproszony storage object/block/file z replikacją | Klaster + dedykowana sieć 10+ Gbps |
| ZFS replikacja | Asynchroniczna replikacja datasetów między węzłami (interval >= 1 min) | Klaster + ZFS na każdym węźle |
Najczęstsze błędy przy wdrożeniu
- Brak dedykowanej sieci corosync — fragmentacja klastra pod obciążeniem. Zawsze osobny VLAN.
- Tylko 2 węzły bez QDevice — split-brain przy partition. Dodaj 3. węzeł lub QDevice.
- HA bez shared storage — HA wymaga aby VM dane były dostępne na każdym węźle. Bez tego HA nie działa.
- Mieszanie hardware bez ujednolicenia CPU — live migration zawodzi. Ustaw
cpu: kvm64lub jednolite typy. - Pominięcie testu failover — pierwsza prawdziwa awaria pokazuje że HA nie było prawidłowo skonfigurowane. Testuj!
- Brak monitoringu kworum — strata kworum = read-only mode. Dodaj alert Zabbix na
pvecm status. - Network bonding źle skonfigurowany — LACP wymaga konfiguracji po stronie switcha. Częsta przyczyna fencingu.
Kiedy warto, kiedy nie warto
Warto wdrożyć klaster gdy:
- Masz 3+ serwery i potrzebujesz HA dla krytycznych aplikacji (ERP, e-commerce, bazy danych)
- Wymagana ciągłość pracy 24/7 (SLA 99.9%+)
- Chcesz live migration dla planowanych przerw konserwacyjnych
- Skalujesz infrastrukturę i chcesz dodawać serwery bez przerw
- Masz wymagania compliance (ISO 27001, NIS2) co do redundancji
Nie warto klastra gdy:
- Masz tylko 1-2 serwery — prościej i taniej zrobić replikację offline + ręczny failover
- Brak budżetu na 3 serwery + dedykowaną sieć — koszt sprzętu i konfiguracji nieadekwatny do skali
- Aplikacje są stateless (cloud-native) — kontenery Kubernetes mogą być lepszą opcją
- Wymagania SLA są niskie (RPO/RTO > 4 godzin) — backup + restore wystarczy
Cennik wdrożenia
Pełna usługa wdrożenia klastra Proxmox dla firm (audyt sprzętu → konfiguracja → dokumentacja → szkolenie):
| Pakiet | Skala | Cena netto | Czas |
|---|---|---|---|
| Klaster Start | 3 węzły, NFS storage, podstawowy HA | od 5 500 zł | 2-4 dni |
| Klaster Pro | 3-5 węzłów, Ceph hyperconverged, HA, monitoring Zabbix | od 12 000 zł | 5-10 dni |
| Klaster Enterprise | 5-15+ węzłów, multi-cluster, Ceph + erasure coding, DR | wycena indywidualna | 2-6 tygodni |
Ceny obejmują: wstępny audyt sprzętu, konfigurację, dokumentację techniczną, 30 dni wsparcia powdrożeniowego, szkolenie 1-dniowe dla administratorów. Sprzęt po stronie klienta lub dostarczamy w wycenie indywidualnej.
Wdrożymy klaster Proxmox w Twojej firmie
Authorized Reseller Proxmox + 22 lata doświadczenia. Pełna obsługa: audyt sprzętu, instalacja, konfiguracja, dokumentacja, szkolenie.
Zamów wycenę 📞 699 715 046Często zadawane pytania (FAQ)
Ile node-ów minimum potrzebuję do klastra Proxmox?
Minimum 3 węzły dla pełnego kworum (większość 2/3). Z 2 węzłami można użyć QDevice (zewnętrzny świadek na trzecim hoście) jako alternatywę. Dla HA z replikacją Ceph rekomendowane 4-5 węzłów.
Czy node-y muszą być identyczne sprzętowo?
Nie muszą być identyczne, ale dla HA i live migration zalecany ten sam producent i generacja CPU. Różne modele CPU wymagają ustawienia cpu: kvm64 w VM dla kompatybilności migracji.
Jakie wymagania ma sieć corosync?
Dedykowany link (osobny VLAN lub fizyczna sieć), latency < 5 ms, jitter < 2 ms, minimum 1 Gbps (10 Gbps zalecane). Corosync używa multicast lub unicast — drugi (link1) zalecany dla redundancji.
Czy Proxmox HA wymaga shared storage?
Tak. HA migration wymaga współdzielonego storage (Ceph, NFS, iSCSI, ZFS-over-iSCSI) lub replikacji ZFS między node-ami. Bez shared storage VM nie może uruchomić się na innym węźle po awarii.
Co się stanie jeśli stracę kworum?
Klaster przejdzie w tryb read-only — nie da się tworzyć/zmieniać VM. Istniejące VMy działają dalej. Po przywróceniu większości węzłów kworum wraca automatycznie. W trybie awaryjnym można wymusić: pvecm expected 1.
Ile kosztuje wdrożenie klastra Proxmox?
Wdrożenie klastra 3-węzłowego z HA i Ceph: od 5500 zł netto (audyt sprzętu, instalacja, konfiguracja, dokumentacja). Cena obejmuje 1 dzień onboardingu i 30 dni wsparcia powdrożeniowego. Wycena indywidualna dla klastrów 5+ węzłów.
Czy mogę dodać Ceph później do istniejącego klastra?
Tak. Ceph można doinstalować po utworzeniu klastra: pveceph install → pveceph init → pveceph mon create na 3 węzłach → pveceph osd create na każdym dysku przeznaczonym dla Ceph. Wymaga osobnej sieci storage 10 Gbps.
Co to jest QDevice i kiedy go potrzebuję?
QDevice to zewnętrzny serwer (Debian/Ubuntu) głosujący w klastrze 2-węzłowym. Pozwala uniknąć split-brain bez 3. pełnoprawnego hosta. Setup: corosync-qdevice na zewnętrznym hoście + pvecm qdevice setup. Niski wymagania (1 vCPU/512 MB RAM).