OVH Community, your new community space.

Proxmox Cluster


achim55
21.02.16, 10:57
Willst Du eine Ausfallsicherheit haben oder nur die Backups verteilen?

Server4pro
18.02.16, 07:13
@ whyte: Gibt ja noch SoluVM für OpenVZ

whyte
18.02.16, 06:57
Ich finde es sehr ärgerlich, dass man bei Proxmox 4 jetzt bei den Containern auch auf Images setzt ... deswegen bin ich auch immer noch auf Proxmox 3.4 stehen geblieben. Ich sehe bei diesen Images einfach keinen Vorteil gegenüber einer freien Speicherbelegung der Festplatte. Der Speicherplatz lässt sich wesentlich effektiver nutzen - kein vergrößern irgendwelcher Images, wenn man was in den Container kopiert, kein unnützer Speicherplatzverbrauch, wenn ein Container 10 GB hat, aber nur 1 GB Inhalt - und der Zugriff ist auch schneller ... für mich ist das ein Rückschritt und da hätte ich wohl eher zu VMware gegriffen, wenn ich Images wollte.

Server4pro
18.02.16, 05:52
Fancing eingerichtet?
Hier meine Notizen zu dem Thema:


































Hosts Datei srv005 war Shared Storage
127.0.0.1 localhost.localdomain localhost
192.168.10.10 srv006.local srv006
192.168.10.20 srv007.local srv007
192.168.10.30 srv008.local srv008
192.168.10.100 srv005.local srv005
IP.IP.IP.IP srv006.server4.pro srv006

vRACK aktivieren
ifconfig -a | grep eth | awk '{print $1}'
ifconfig eth1 up
ethtool eth1 | grep "Link detected"
arping -I eth1 1.1.1.1

nano /etc/network/interfaces
auto eth1
iface eth1 inet static
address 192.168.10.10
netmask 255.255.255.0
broadcast 192.168.10.255

cd /usr/sbin/
mv fence_ovh fence_ovh.bkp
apt-get install curl
wget https://github.com/adriangibanelbtac...l_fence_ovh.sh
chmod +x install_fence_ovh.sh
./install_fence_ovh.sh

nun kannst du den Cluster erstellen
pvecm create cloud1-sbg
pvecm add srv00x

Die Netzwerkconfig habe ich leider nicht mehr für die 10Gbit vRACK und 1Gbit ins Internet. Wenn du es richtig machst kannst du dann im vrack alle IP's ohne vMAC nutzen (abzüglich den üblichen verdächtigen)

Würde heute auch Proxmox 4 nehmen in anbetracht dass wohl was geändert hat mit dem Fancing was nun besser sein soll Ebenso shared Storage, da würde ich lokalstorage (SSD) nutzen (Ceph) im 10Gbit vRACK.
Somit braucht man 4 Server. 3 Mal Node und 1 SyS Backupserver

ChoosenEye
30.01.16, 21:34
tja hab derzeit keine server bei OVH direkt (nur Kim und Sys) wenn du möchtest können wir uns das aber gerne mal angucken Skype(chooseneye), TS (ivodohl.de) hab beides und jetzt gerade zeit ^^

Ansonsten kann ich da wohl nur bedingt weiterhelfen.

ferdl9999
30.01.16, 21:29
Nein, sie sind nicht im selben Netz. Ich habe mich die ganze Zeit schon wegen den vRacks belesen, habe es aber nicht geschafft, diese richtig auf den Servern zu konfigurieren.

Ein vRack habe ich bereits erstellt und ich habe beide Server hinzugefügt.
Ich bin nach diese Anleitung vorgegangen, jedoch ist der jeweils andere Server nicht via Ping erreichbar. Die eigene Adresse ist aber erreichbar: http://help.ovh.com/vrack

Hier steht dann beim neu laden des Netzwerk-Dienstes, dass die ID (des vRacks) ungültig ist.

Ich bin auch nach dieser Anleitung vorgegangen (hier konnte ich die zugewiesene IP-Adresse pingen, aber nicht die des anderen Servers): http://hilfe.ovh.de/VrackInfrastrukturServer

ChoosenEye
30.01.16, 21:21
Moin,

1. Warum Proxmox 3.4? Mittlweile sind wir doch bei 4 aber nur am Rande (ist vorrallem für IPv6 interessant)

bezüglich des Problems sind die Server im selben Netz?

Also bsp.

192.168.1.0/24 das beide darin enthalten sind also 192.168.1.1 und 192.168.1.2 o.ä.

wenn nicht ist ein Cluster über Proxmox nicht möglich da diese per Multicast kommunizieren.

Gruß
ChoosenEye

ferdl9999
30.01.16, 18:18
Hallo,

ich bin gerade dabei, ein Proxmox Cluster aufzusetzen.

Es wird auf beiden Servern Proxmox 3.4 verwendet.
Auf dem ersten Proxmox-Server habe ich folgenden Befehl eingegeben: pvecm create cluster

Hierbei lief alles problemlos ab.

Auf dem 2. Proxmox-Server habe ich folgenden Befehl eingegeben und daraufhin den Key mit "yes" bestätigt und das Passwort eingegeben: pvecm add

Hierbei kam diese Fehlermeldung:
copy corosync auth key
stopping pve-cluster service
Stopping pve cluster filesystem: pve-cluster.
backup old database
Starting pve cluster filesystem : pve-cluster.
Starting cluster:
Checking if cluster has been disabled at boot... [ OK ]
Checking Network Manager... [ OK ]
Global setup... [ OK ]
Loading kernel modules... [ OK ]
Mounting configfs... [ OK ]
Starting cman... [ OK ]
Waiting for quorum... Timed-out waiting for cluster
[FAILED]
waiting for quorum...


Woran liegt der Fehler?