Infrastructure

Proxmox VE : comprendre la virtualisation open source

2025-06-16 · Datacampus

Derrière chaque VPS, chaque serveur cloud, il y a un hyperviseur : le logiciel qui découpe une machine physique en plusieurs machines virtuelles indépendantes. Sans lui, pas de mutualisation, pas d'isolation, pas de cloud. Proxmox Virtual Environment (Proxmox VE) est l'un de ces hyperviseurs — et c'est celui que nous avons choisi chez Datacampus.

Cet article explique ce qu'est Proxmox, comment il fonctionne, et pourquoi il est devenu une référence dans le monde de l'hébergement.

Qu'est-ce qu'un hyperviseur ?

Un hyperviseur est une couche logicielle qui s'installe sur un serveur physique (le host) et permet de créer des machines virtuelles (VM). Chaque VM fonctionne comme un ordinateur complet et indépendant : son propre système d'exploitation, sa propre mémoire, ses propres disques.

Il existe deux types d'hyperviseurs :

  • Type 1 (bare metal) — installé directement sur le matériel, sans système d'exploitation intermédiaire. C'est le cas de Proxmox VE, VMware ESXi ou Microsoft Hyper-V.
  • Type 2 (hosted) — installé comme une application dans un OS existant. C'est le cas de VirtualBox ou VMware Workstation, utilisés plutôt sur des postes de travail.

En production, c'est toujours un hyperviseur de type 1 qui est utilisé. Les performances et l'isolation sont incomparables.

Proxmox VE en bref

Proxmox VE est développé par Proxmox Server Solutions GmbH, une entreprise autrichienne fondée en 2005. Il est distribué sous licence AGPLv3 : le code source est ouvert, librement téléchargeable et modifiable.

KVM

Virtualisation matérielle complète (VMs)

LXC

Conteneurs légers (Linux)

Debian

Base stable et éprouvée

Concrètement, Proxmox VE est une distribution Debian modifiée qui intègre :

  • KVM (Kernel-based Virtual Machine) pour la virtualisation matérielle complète
  • LXC (Linux Containers) pour la conteneurisation légère
  • Une interface web complète pour administrer l'ensemble
  • Une API REST pour l'automatisation

KVM : la virtualisation complète

KVM est intégré au noyau Linux depuis 2007. C'est le standard de virtualisation du monde open source, utilisé aussi bien par Red Hat, Google Cloud que par des millions de serveurs dans le monde.

Avec KVM, chaque machine virtuelle dispose d'un accès matériel quasi-direct aux ressources du processeur grâce aux extensions Intel VT-x ou AMD-V. Le résultat : des performances proches du bare metal, avec une isolation complète entre les VMs.

Une VM KVM peut exécuter n'importe quel système d'exploitation : Linux, Windows, FreeBSD, ou même des appliances réseau. Chaque VM voit un matériel virtuel complet (CPU, RAM, disques, cartes réseau) et ignore tout des autres VMs présentes sur le même hôte.

LXC : des conteneurs système légers

En parallèle des VMs, Proxmox VE propose des conteneurs LXC. Un conteneur LXC partage le noyau Linux de l'hôte mais fonctionne dans un espace isolé (namespaces, cgroups). Pas de noyau supplémentaire à charger : le démarrage est quasi-instantané et la consommation mémoire est minimale.

C'est idéal pour des services Linux légers : serveurs web, bases de données, DNS, reverse proxies. Un conteneur LXC consomme beaucoup moins de ressources qu'une VM pour un service équivalent.

VM (KVM) Conteneur (LXC)
Isolation Complète (noyau séparé) Forte (namespaces, cgroups)
OS supportés Tous (Linux, Windows, BSD) Linux uniquement
Démarrage ~15-30 secondes ~1-2 secondes
Overhead mémoire Modéré (noyau guest) Quasi nul
Usage typique VPS, Windows, apps complexes Services Linux, microservices

Le cluster : plusieurs nœuds, une seule interface

Proxmox VE permet de regrouper plusieurs serveurs physiques dans un cluster. Les nœuds du cluster communiquent via Corosync (une couche de communication et de membership) et partagent une vue unifiée de toutes les VMs et conteneurs.

Depuis l'interface web d'un seul nœud, on voit et on administre l'ensemble du cluster. On peut déplacer une VM d'un serveur à un autre en direct (live migration), sans interruption de service. La VM continue de fonctionner pendant le transfert.

Le clustering est inclus dans Proxmox VE sans coût supplémentaire. Pas de licence « Enterprise Plus » à débloquer.

Haute disponibilité (HA)

Le module HA de Proxmox VE surveille l'état de chaque nœud du cluster. Si un serveur tombe en panne (matériel, kernel panic, perte réseau), les VMs marquées comme « HA » sont automatiquement redémarrées sur un autre nœud.

Le processus repose sur un mécanisme de fencing : avant de redémarrer une VM ailleurs, le cluster s'assure que le nœud défaillant est véritablement arrêté (via IPMI, iLO, ou un power fencing device). Cela évite le split-brain — deux copies d'une même VM qui tournent simultanément.

Condition préalable : le stockage doit être partagé entre les nœuds. C'est là qu'intervient Ceph ou un SAN/NAS externe.

Stockage : Ceph, ZFS et plus

Proxmox VE prend en charge de nombreux backends de stockage :

  • Ceph — stockage distribué intégré directement dans Proxmox. Les données sont répliquées sur plusieurs nœuds. Aucune dépendance extérieure.
  • ZFS — système de fichiers avancé avec snapshots, compression et vérification d'intégrité. Idéal pour du stockage local performant.
  • LVM / LVM-Thin — gestion de volumes Linux classique, avec du thin provisioning pour optimiser l'espace.
  • NFS, iSCSI, GlusterFS — pour se connecter à un stockage réseau externe.

L'intégration native de Ceph est un avantage majeur : on peut déployer et gérer un cluster Ceph complet depuis l'interface Proxmox, sans outil tiers.

Sauvegardes avec PBS

Proxmox Backup Server (PBS) est le compagnon naturel de Proxmox VE. Il gère les sauvegardes de VMs et conteneurs avec déduplication, compression et chiffrement côté client.

Les sauvegardes sont incrémentales : seuls les blocs modifiés sont transférés. Un serveur avec 500 Go de données dont 2 Go ont changé ne transfère que 2 Go. La restauration peut se faire au niveau de la VM complète, d'un disque, ou même de fichiers individuels.

L'interface web

Tout se gère depuis un navigateur. L'interface web de Proxmox VE permet de :

  • Créer, configurer et démarrer des VMs et conteneurs
  • Accéder à la console (VNC/SPICE) directement dans le navigateur
  • Gérer le stockage, les réseaux, les permissions
  • Planifier les sauvegardes
  • Surveiller les performances (CPU, RAM, I/O, réseau)
  • Effectuer des live migrations par glisser-déposer

L'API REST sous-jacente permet d'automatiser toutes ces opérations. Tout ce que fait l'interface graphique passe par cette API — ce qui signifie que tout est scriptable.

Pourquoi l'open source compte

L'épisode Broadcom/VMware (rachat en 2023, explosion des tarifs, fin des licences perpétuelles) a rappelé un principe fondamental : dépendre d'un éditeur propriétaire est un risque.

Avec Proxmox VE, le code source est sous licence AGPLv3. Il ne peut pas être fermé, et personne ne peut décider uniLatéralement de multiplier les prix par dix. Si l'éditeur disparaît, le code reste, la communauté reste, et KVM est maintenu par le noyau Linux lui-même.

Chez Datacampus : nous avons d'abord utilisé Xen comme hyperviseur, avant de migrer l'ensemble de notre infrastructure vers Proxmox VE. Clusters multi-nœuds, stockage Ceph intégré, sauvegardes PBS, haute disponibilité : c'est aujourd'hui l'hyperviseur qui fait tourner chaque VPS que nous livrons.

Proxmox VE n'est pas un outil de niche. C'est une plateforme de virtualisation complète, prouvée en production, et libre. Pour quiconque cherche à comprendre comment fonctionne l'infrastructure derrière un hébergeur, c'est un excellent point de départ.

— Datacampus

Hébergement souverain, éco-responsable et infogéré

Serveurs en France, énergie renouvelable, support humain. Découvrez ce que Datacampus peut faire pour vous.

Découvrir nos solutions Nous contacter

Articles sur le même sujet

Infrastructure

Ceph : comprendre le stockage distribué

Architecture RADOS, algorithme CRUSH, réplication, erasure coding, intégration Proxmox : tout comprendre sur Ceph, le système de stockage distribué qui propulse nos clusters NVMe.

← Retour au blog