Proxmox.pl

Klaster Proxmox VE — konfiguracja krok po kroku

Najkrócej (TL;DR): Klaster Proxmox VE wymaga minimum 3 węzłów dla kworum, dedykowanej sieci corosync (latency < 5 ms), shared storage dla HA (Ceph/NFS/iSCSI). Wdrożenie 3-węzłowego klastra zajmuje 2-4 godziny przy gotowym sprzęcie. Pełna usługa wdrożenia: od 5500 zł netto z dokumentacją i 30 dniami wsparcia.

Czym jest klaster Proxmox VE

Klaster Proxmox to grupa serwerów z zainstalowanym Proxmox VE, które wspólnie zarządzają maszynami wirtualnymi. Zapewnia wysoką dostępność (HA), live migration, centralne zarządzanie i replikację konfiguracji. Klaster używa Corosync do synchronizacji stanu i pmxcfs (rozproszonego systemu plików) do replikacji konfiguracji w czasie rzeczywistym.

W praktyce klaster pozwala na:

Wymagania klastra

Minimum sprzętowe

KomponentMinimumZalecane (produkcja)
Liczba węzłów3 (lub 2 + QDevice)3-7 dla małych firm, 5-15 dla większych
CPU4 rdzenie / węzeł16+ rdzeni / węzeł, jednolita architektura
RAM8 GB / węzeł64-256 GB / węzeł
Storage systemSSD 120 GBNVMe 480 GB (mirror ZFS)
Sieć zarządzania1 Gbps10 Gbps (osobny VLAN)
Sieć corosync1 Gbps dedykowany link2 × 1 Gbps (link0+link1) lub 10 Gbps
Sieć storage (Ceph)10 Gbps25/40/100 Gbps + RDMA

Wymagania sieciowe

Sieć jest często niedoceniana — to ona decyduje o stabilności klastra. Krytyczne parametry:

Częsty błąd: używanie pojedynczej sieci 1 Gbps dla zarządzania, corosync, storage i VM-traffic. Pod obciążeniem (np. backup) corosync traci pakiety i klaster fragmentuje się. ZAWSZE osobny VLAN dla corosync, najlepiej osobny switch.

Konfiguracja klastra — krok po kroku

  1. Zainstaluj Proxmox VE na każdym węźle

    Pobierz ISO z proxmox.com/downloads, zbootuj na każdym serwerze. Wybierz ZFS (rpool) jako storage system — daje lokalną replikację i snapshoty. Po instalacji zaktualizuj system: apt update && apt full-upgrade.

  2. Skonfiguruj sieć dedykowaną corosync

    Dodaj drugi interfejs (np. eno2) w trybie bridge (vmbr1) na osobnym VLAN. Przykład w /etc/network/interfaces:

    auto vmbr1
    iface vmbr1 inet static
        address 10.10.10.11/24
        bridge-ports eno2
        bridge-stp off
        bridge-fd 0
        mtu 9000  # jumbo frames jeśli switch obsługuje

    Powtórz na każdym węźle z odpowiednim IP (10.10.10.11/12/13).

  3. Utwórz klaster na pierwszym węźle
    # Na node1
    pvecm create produkcja01 -link0 10.10.10.11
    
    # Weryfikacja
    pvecm status

    Wynik: Quorate: Yes, Total votes: 1 (na razie sam).

  4. Dołącz pozostałe węzły
    # Na node2 (i node3)
    pvecm add 10.10.10.11 -link0 10.10.10.12  # node2
    pvecm add 10.10.10.11 -link0 10.10.10.13  # node3
    
    # Po każdym add:
    pvecm status  # Total votes powinno rosnąć

    Po dodaniu 3. węzła Total votes: 3, Quorate: Yes — klaster działa.

  5. Skonfiguruj HA Manager (dla automatycznego restartu VM po awarii)

    W panelu webowym: Datacenter → HA → Groups → Create. Wybierz węzły dla danej grupy. Następnie Datacenter → HA → Resources → Add → wybierz VM/CT. Stan: ha-manager status.

  6. Dodaj shared storage (NFS, iSCSI lub Ceph)

    Dla małych klastrów: NFS share z 4. serwera lub NAS. Dla średnich/dużych: Ceph hyperconverged (na tych samych węzłach). Konfiguracja Ceph: pveceph install, pveceph init --network 10.10.20.0/24, pveceph mon create na 3 węzłach, pveceph osd create /dev/sdX dla każdego dysku Ceph.

  7. Test failover — symulacja awarii
    # Na node1 z HA-managed VM
    qm set 100 --ha 1  # włącz HA dla VM 100
    shutdown -h now    # symuluj awarię node1
    
    # Z node2 obserwuj (po ~2 min)
    ha-manager status  # VM 100 powinno zmienić node na node2/node3

    VM zostanie automatycznie zrestartowana na innym węźle. To dowód że HA działa.

Klaster vs HA vs Ceph — co to jest co

PojęcieCo robiWymaga
Klaster ProxmoxGrupowanie serwerów + centralne zarządzanie + replikacja konfiguracji3+ węzły, sieć corosync
HA (High Availability)Automatyczny restart VM na innym węźle po awariiKlaster + shared storage
Live migrationPrzeniesienie działającej VM bez wyłączaniaKlaster + shared storage (lub ZFS replikacja)
CephRozproszony storage object/block/file z replikacjąKlaster + dedykowana sieć 10+ Gbps
ZFS replikacjaAsynchroniczna replikacja datasetów między węzłami (interval >= 1 min)Klaster + ZFS na każdym węźle

Najczęstsze błędy przy wdrożeniu

  1. Brak dedykowanej sieci corosync — fragmentacja klastra pod obciążeniem. Zawsze osobny VLAN.
  2. Tylko 2 węzły bez QDevice — split-brain przy partition. Dodaj 3. węzeł lub QDevice.
  3. HA bez shared storage — HA wymaga aby VM dane były dostępne na każdym węźle. Bez tego HA nie działa.
  4. Mieszanie hardware bez ujednolicenia CPU — live migration zawodzi. Ustaw cpu: kvm64 lub jednolite typy.
  5. Pominięcie testu failover — pierwsza prawdziwa awaria pokazuje że HA nie było prawidłowo skonfigurowane. Testuj!
  6. Brak monitoringu kworum — strata kworum = read-only mode. Dodaj alert Zabbix na pvecm status.
  7. Network bonding źle skonfigurowany — LACP wymaga konfiguracji po stronie switcha. Częsta przyczyna fencingu.

Kiedy warto, kiedy nie warto

Warto wdrożyć klaster gdy:

Nie warto klastra gdy:

Cennik wdrożenia

Pełna usługa wdrożenia klastra Proxmox dla firm (audyt sprzętu → konfiguracja → dokumentacja → szkolenie):

PakietSkalaCena nettoCzas
Klaster Start3 węzły, NFS storage, podstawowy HAod 5 500 zł2-4 dni
Klaster Pro3-5 węzłów, Ceph hyperconverged, HA, monitoring Zabbixod 12 000 zł5-10 dni
Klaster Enterprise5-15+ węzłów, multi-cluster, Ceph + erasure coding, DRwycena indywidualna2-6 tygodni

Ceny obejmują: wstępny audyt sprzętu, konfigurację, dokumentację techniczną, 30 dni wsparcia powdrożeniowego, szkolenie 1-dniowe dla administratorów. Sprzęt po stronie klienta lub dostarczamy w wycenie indywidualnej.

Wdrożymy klaster Proxmox w Twojej firmie

Authorized Reseller Proxmox + 22 lata doświadczenia. Pełna obsługa: audyt sprzętu, instalacja, konfiguracja, dokumentacja, szkolenie.

Zamów wycenę 📞 699 715 046

Często zadawane pytania (FAQ)

Ile node-ów minimum potrzebuję do klastra Proxmox?

Minimum 3 węzły dla pełnego kworum (większość 2/3). Z 2 węzłami można użyć QDevice (zewnętrzny świadek na trzecim hoście) jako alternatywę. Dla HA z replikacją Ceph rekomendowane 4-5 węzłów.

Czy node-y muszą być identyczne sprzętowo?

Nie muszą być identyczne, ale dla HA i live migration zalecany ten sam producent i generacja CPU. Różne modele CPU wymagają ustawienia cpu: kvm64 w VM dla kompatybilności migracji.

Jakie wymagania ma sieć corosync?

Dedykowany link (osobny VLAN lub fizyczna sieć), latency < 5 ms, jitter < 2 ms, minimum 1 Gbps (10 Gbps zalecane). Corosync używa multicast lub unicast — drugi (link1) zalecany dla redundancji.

Czy Proxmox HA wymaga shared storage?

Tak. HA migration wymaga współdzielonego storage (Ceph, NFS, iSCSI, ZFS-over-iSCSI) lub replikacji ZFS między node-ami. Bez shared storage VM nie może uruchomić się na innym węźle po awarii.

Co się stanie jeśli stracę kworum?

Klaster przejdzie w tryb read-only — nie da się tworzyć/zmieniać VM. Istniejące VMy działają dalej. Po przywróceniu większości węzłów kworum wraca automatycznie. W trybie awaryjnym można wymusić: pvecm expected 1.

Ile kosztuje wdrożenie klastra Proxmox?

Wdrożenie klastra 3-węzłowego z HA i Ceph: od 5500 zł netto (audyt sprzętu, instalacja, konfiguracja, dokumentacja). Cena obejmuje 1 dzień onboardingu i 30 dni wsparcia powdrożeniowego. Wycena indywidualna dla klastrów 5+ węzłów.

Czy mogę dodać Ceph później do istniejącego klastra?

Tak. Ceph można doinstalować po utworzeniu klastra: pveceph installpveceph initpveceph mon create na 3 węzłach → pveceph osd create na każdym dysku przeznaczonym dla Ceph. Wymaga osobnej sieci storage 10 Gbps.

Co to jest QDevice i kiedy go potrzebuję?

QDevice to zewnętrzny serwer (Debian/Ubuntu) głosujący w klastrze 2-węzłowym. Pozwala uniknąć split-brain bez 3. pełnoprawnego hosta. Setup: corosync-qdevice na zewnętrznym hoście + pvecm qdevice setup. Niski wymagania (1 vCPU/512 MB RAM).

Powiązane materiały