Stockage CEPH

Solution de stockage d’entreprise évolutive, fiable et agile

CEPH , évolution des solutions de stockage

Développé par IBM Red Hat, CEPH est une solution de stockage distribué évolutive, intelligente, fiable et hautement disponible qui propose donc trois protocoles en un. Des services de stockage en mode bloc (par exemple pour le stockage de VM), des services de stockage en mode objet (compatibles S3 et Swift) et des services en mode fichiers (via CEPHFS) dans un système de stockage unifié pour répondre à vos besoins que se soit sur site, dans le cloud public ou privé, ou native des conteneurs.

C’est une solution de stockage distribué qui permet de réduire les coûts de stockage.

ceph

Fonctionnement

Dans CEPH, les données ne sont pas stockées sous forme de fichiers traditionnels, mais sous forme d’objets dans un espace de noms unique et plat.
Quand un fichier est enregistré sur le cluster, CEPH le découpe en plusieurs blocs de taille fixe. Chacun de ces blocs est ensuite placé dans un objet, qui devient l’unité de stockage de base.
Un objet contient trois éléments :

  • le bloc de données lui-même,
  • des métadonnées (informations sur le contenu),
  • et un identifiant unique qui permet de le retrouver.

Pour savoir où placer chaque objet dans le cluster, CEPH utilise un algorithme appelé CRUSH. Cet algorithme calcule, à partir de l’identifiant de l’objet, quels OSD (Object Storage Daemons) vont stocker ses copies.

Ce système permet à CEPH de répartir les données automatiquement et efficacement, sans avoir besoin d’un serveur central ou d’un nœud maître pour gérer l’emplacement des fichiers.

Pour assurer la durabilité des données et une haute disponibilité, CEPH duplique chaque objet sur plusieurs disques appelés OSD.
Le nombre de copies (ou répliques) est paramétrable, souvent fixé à trois afin de trouver un bon équilibre entre sécurité des données (grâce à la redondance) et efficacité du stockage (pour ne pas multiplier inutilement l’espace utilisé).

CEPH garantit également une forte cohérence des données.
Lorsqu’un objet est écrit ou modifié, la mise à jour est envoyée à toutes les répliques concernées. Ce n’est qu’une fois que toutes les copies ont bien reçu et validé la modification que CEPH confirme l’écriture au client.
Grâce à ce mécanisme, tous les clients voient exactement les mêmes données, quel que soit le serveur (ou la réplique) auquel ils se connectent.

CEPH propose plusieurs interfaces pour accéder aux données, chacune adaptée à un type spécifique de stockage :

  • RADOS Block Device (RBD) : pour le stockage en bloc. Cela permet aux machines virtuelles ou aux bases de données d’utiliser CEPH comme un disque dur local, mais stocké dans le cluster.
  • CEPHFS : pour le stockage de fichiers. C’est un système de fichiers compatible POSIX, qui permet de gérer les fichiers dans une structure hiérarchique classique, comme sur un disque dur normal.
  • RADOS Gateway (RGW) : pour le stockage d’objets. Cette interface offre des API compatibles S3 et Swift, permettant de stocker et de récupérer les données sous forme d’objets, comme dans les services de stockage cloud.

Les clients CEPH utilisent ces interfaces pour interagir avec le cluster. Ils s’appuient sur librados, une bibliothèque qui implémente le protocole de communication avec les OSD, afin d’accéder directement aux données stockées dans le cluster.

CEPH est conçu pour s’autoréparer et automatiser au maximum ses tâches administratives afin de réduire les coûts d’exploitation.

Les moniteurs CEPH (MON) jouent un rôle essentiel dans la gestion du cluster.
Ils surveillent en permanence l’état du système, notamment la santé des OSD (les disques de stockage) et leur répartition à travers le cluster.

Pour s’assurer que tous les moniteurs partagent la même vision du cluster, CEPH utilise un algorithme de consensus appelé Paxos. Cet algorithme permet à tous les MON de se mettre d’accord sur l’état actuel du système, garantissant ainsi que chaque nœud du cluster dispose d’une vue cohérente et fiable.

En cas de panne d’un OSD, CEPH réagit automatiquement : il reconstruit et déplace les données vers d’autres OSD afin de restaurer le nombre de copies prévu.
Ce mécanisme, appelé auto-guérison, permet au cluster de rester opérationnel et sûr, même en présence de défaillances matérielles.

L’architecture de CEPH est conçue pour croître facilement, pouvant s’étendre à des milliers de nœuds et gérer des quantités de données allant des pétaoctets aux exaoctets.
Augmenter la capacité de stockage ou les performances du cluster est simple : il suffit d’ajouter de nouveaux nœuds.

L’algorithme CRUSH joue un rôle clé dans cette évolutivité. Il permet de répartir les données de manière uniforme sur l’ensemble du cluster, sans créer de goulot d’étranglement central. Ainsi, CEPH peut croître et fonctionner efficacement même avec un très grand nombre de serveurs et de volumes de données.

Pourquoi utiliser CEPH ?

Flexible

flexible
  • Stockage multiprotocole : bloc, fichier, objet.
  • Mise à l’échelle rapide : ajout de capacité sans interruption de service.
  • Déploiement progressif : le cluster évolue au rythme de vos besoins.

Fiable

stockage ceph
  • Sécurité et intégrité des données garanties.
  • Conformité réglementaire et archivage facilités.
  • Versionning et immuabilité : possibilité de restaurer des versions antérieures.
  • Authentification CEPHX pour les utilisateurs et démons, avec gestion fine des accès.

Hautement disponible

stockage ceph
  • Réplication automatique des données sur plusieurs nœuds.
  • Aucune contrainte matérielle : compatible serveurs physiques (pour les nœuds) et machines virtuelles (pour les monitor).
  • Architecture redondante : continuité de service même en cas de défaillance.

Les + Aliénor.net

En choisissant Aliénor.net, vous bénéficiez d’un hébergement souverain, sécurisé et accompagné par des experts.

  • Support technique disponible 24/7.
  • Assistance niveau 1 incluse, et niveau 3 sur contrat.
  • 100 To de stockage disponible.
  • Réseau redondant 20 Gb/s (2×10 Gb/s).
  • Accessibilité des données à 100 %.
  • Hébergement en France, dans notre datacenter.
  • Accès via iSCSI dans notre cloud privé.