Mise en place d’un cluster Proxmox s’étalant sur différents réseaux (3/3)

By | June 23, 2020

Bienvenue à la troisième phase de notre projet qui porte sur la mise en place d’un cluster Proxmox s’étalant sur différents réseaux.
Pour comprendre les configurations utilisées dans ce cluster, je vous invite à revoir Mise en place d’un cluster Proxmox s’étalant sur différents réseaux (1/3) et Mise en place d’un cluster Proxmox s’étalant sur différents réseaux (2/3).

Cette phase concerne essentiellement la mise en place  d’une haute disponibilité avec Ceph.

Avant de continuer, il faudra s’assurer au préalable que chaque noeud possède un disque supplémentaire que nous utiliserons pour y déployer notre instance Ceph.

I- Création d’une instance Ceph

Pour installer Ceph sur chaque noeud, sélectionner tout d’abord votre noeud principal, puis choisissez l’option Ceph et cliquez sur Install Ceph-nautilus pour lancer l’installation.

A la fin de l’installation sur snowy, nous sommes amené à choisir l’interface à travers laquelle ce noeud communiquera. Nous utiliserons encore vmbr1.

Il faudra faire l’installation sur les deux autres noeuds. Les configurations de ceph sur les deux autres noeuds s’effectuent automatiquement.

La toute première installation sur stormy crée automatiquement un moniteur sur le noeud et le promeut comme manager.
La prochaine étape consiste à créer des moniteurs pour les deux autres noeuds (Ceph/Monitor/Create).

Au final, nous avons un manager (stormy) et trois moniteurs (stormy, snowy, rainy).

De retour sur stormy, créeons un OSD à partir du disque supplémentaire via l’option Create OSD dans l’option Ceph/OSD.

Après avoir créé les OSD sur les deux autres noeuds, nous obtenons la configuration ci-dessous.

Passons à la création d’un pool Ceph via l’option Ceph/Pools/Create.

NB: L’option Size représente le nombre de ressources et Min_Size le nombre minimal de ressources pour le fonctionnement du pool.
Nous allons appliquer les options par défaut. En utilisant cette configuration, nous ne tolérerons la perte que d’un seul noeud.

Juste après la création de ce pool, un stockage supplémentaire CephPool apparaît sous chaque noeud.

II-Test de Migration

Pour notre test, installons sur stormy une machine Ubuntu Server Focal Fossa  (u-server) dotée de l’adresse IP 192.168.1.2.

NB: Nous avons configuré un port forwarding sur l’interface vmbr0 de chaque noeud. Do you remember ? 🙂

Connectons-nous sur cette VM via le port 2222 de stormy et créeons un simple fichier de test qui nous servira de POC.

Migrons donc cette VM de stormy vers snowy à l’aide de l’option Migrate qui se situe à l’extrême droite en haut après avoir sélectionné la VM.

La migration se réalise avec succès et après un redémarrage de la VM pour prise en compte des nouveaux paramètres réseaux, nous parvenons à nous connecter à notre VM sur le port 2222 de snowy cette fois.

III-Test FailOver

Créeons un groupe HA à partir de Datacenter/HA/Groups et ajoutons-y nos ressources.
NB: Notez que cette option est facultative.

Après avoir rendu indisponible snowy, nous notons que notre VM apparaît sur rainy et nous parvenons à nous connecter à notre VM sur le port 2222 aussi après un énième redémarrage de la VM pour la prise en compte des nouveaux paramètres réseaux.

Mais en éteignant aussi rainy, rien n’apparaît sur stormy. Preuve que notre instance Ceph ne tolère la perte que d’un seul noeud.

Ainsi prend fin notre projet sur Proxmox.

J’espère que ce fut une agréable découverte pour vous. Si vous avez des questions et même de meilleures configurations de Clusters Proxmox, n’hésitez pas à poster un commentaire.

Je vous réfère également au blog blog.zwindler.fr qui est une très bonne source d’information sur la création des clusters sur Proxmox.

A très bientôt ! 🙂

mdestroy

One thought on “Mise en place d’un cluster Proxmox s’étalant sur différents réseaux (3/3)

  1. zwindler

    Hello,

    Jolie suite d’articles.

    J’avais fais un tuto similaire pour connecter des Proxmox sur des LAN différents (avec tinc aussi) mais je n’avais pas publié la partie Ceph car j’avais eu beaucoup de mal à configurer ceph pour qu’il passe par le reseau de tinc. Par défaut il essayait de passer par l’interface réseau physique et ça ne marchait donc pas du tout…

    Je constate que toi tu n’as pas eu ce souci, donc bravo à toi, il faudra que je comprenne la différence entre nos deux installations 😉

    Reply

Leave a Reply

Your email address will not be published. Required fields are marked *