
Temps de lecture : 4 min
Points clés à retenir
- Autonomie, pas automatisation : L’humain reste dans la boucle pour toute action opérationnelle. Pas d’auto-tiering, les politiques sont validées manuellement.
- Agent IA Guardian multi-modèles : Claude, Gemini et Mixtral pilotent la maintenance, l’observabilité et les correctifs de sécurité, mais sans speech-to-text pour l’instant.
- Cas d’usage IA en forte demande : 9 nouveaux clients sur 10 viennent pour des projets d’IA, avec des besoins de performance extreme GPU et KV Cache.
Scality change de braquet avec ADI
Après 16 ans de bons et loyaux services sur le marché du stockage objet, Scality ne s’endort pas sur ses lauriers. L’éditeur français, connu pour ses offres Ring (grandes entreprises) et Artesca (PME), vient de dévoiler Autonomous Data Infrastructure (ADI). Une solution de data management qui promet de gérer le cycle de vie des données sur plusieurs supports : SSD NVMe, disques durs, bandes et cloud via connecteurs S3, le tout dans un espace de données unique.
Concrètement, ADI couvre quatre classes de stockage en mode tiering, du plus chaud au plus froid : GPU Direct S3 over RDMA avec TLC haute performance, S3 avec QLC, S3 avec SSD nearline ou disques durs, et bande ou archivage cloud. Regardons les chiffres : on parle de débits pouvant atteindre plusieurs To/s avec une latence très faible, grâce notamment à un connecteur KV Cache accéléré par RDMA. Pour ceux qui ne suivent pas les trends IA, le KV Cache (Key-Value Cache) est une optimisation clé pour accélérer l’inférence des LLM basés sur l’architecture Transformer.
Un agent IA baptisé Guardian, mais pas de délégation totale
Scality a intégré un agent IA Guardian qui s’occupe de la maintenance en conditions opérationnelles : réparation, rééquilibrage, mises à jour, observabilité sur le stockage et correctifs de sécurité pour les CVE. Derrière, on trouve plusieurs LLM : Claude d’Anthropic, Gemini de Google et Mixtral de Mistral. Ce qu’on ne vous dit jamais, c’est que l’éditeur n’a pas visé les modèles les plus performants. « Guardian n’a pas besoin des meilleurs modèles pour fonctionner », explique Jérôme Lecat, PDG de Scality. Et il ajoute que l’agent pourra tourner sur des modèles on premise plus petits et open-weight.
Mais attention : pas d’auto-tiering de données. Toute action opérationnelle doit être validée par un humain. « L’humain reste dans la boucle », insiste Lecat. C’est clairement un choix assumé, et ça explique le nom “autonome” plutôt qu’automatique. Dans la vraie vie (pas sur LinkedIn), ça veut dire que vous ne confierez pas à un algorithme la décision de déplacer vos données critiques d’un support à un autre sans regard humain. Pour l’instant, le speech-to-text est dans la feuille de route, mais pas encore livré.
Qui peut le plus peut le moins, mais attention aux contraintes
L’avantage d’ADI, c’est de couvrir plusieurs cas d’usage avec des contraintes très différentes en débit, latence et gouvernance. Vous pouvez aussi bien pousser des workloads GPU que gérer de l’archivage froid. Mais ce que j’ai appris à la dure avec ce genre de solutions, c’est que la flexibilité a un coût. Ici, le tiering manuel signifie que vos équipes doivent passer du temps à définir et valider les politiques. Pas de miracle : si vous cherchez une solution clé en main qui fait tout toute seule, ce n’est pas encore ça.
Le marché de l’IA tire la demande
Scality mise beaucoup sur ADI, et pour l’instant, ça semble marcher. On va être honnête : 9 nouveaux clients sur 10 viennent pour des projets IA. Les anciens clients Ring, eux, restent sur des usages plus traditionnels. L’éditeur a aussi signé un partenariat avec Weka et annoncé une rentabilité récente. Un client comme Groupama vise un déploiement pour septembre 2026, si les problèmes d’approvisionnement de serveurs et la hausse des prix du flash ne viennent pas tout gâcher.
Ce qui compte vraiment au quotidien pour un DSI ou un dirigeant : ADI répond à un besoin réel de gestion unifiée des données, mais avec des compromis assumés. Pas d’auto-tiering, un humain dans la boucle, des modèles IA pas forcément les plus performants – mais une solution qui tient la route pour des entreprises de taille moyenne à grande. On va voir ça pas à pas : suivez les retours d’expérience, car c’est là que la valeur se révèle.
Plan d’action : quoi faire cette semaine dans votre boîte
- Audit : Évaluez si votre infrastructure de stockage actuelle supporte des workloads IA ou des besoins de performance extreme GPU.
- Comparaison : Testez ADI en lab sur un cas d’usage représentatif (par ex. gestion de KV Cache pour inférence) et comparez avec votre solution existante.
- Formation : Préparez vos équipes à l’opération manuelle de tiering – ne partez pas du principe que l’IA va tout gérer sans intervention humaine.

Neuf ans à piloter une PME de 45 personnes, à tester des outils, à faire des erreurs — et à en tirer les leçons que personne ne publie. Aujourd’hui, je vous épargne les détours inutiles.
