Découvrez Claude Code en action, du concept à la validation dans un seul flux de travail fluide.
Découvrez Claude Code en action, du concept à la validation dans un seul flux de travail fluide.

Découvrez Claude Code en action, du concept à la validation dans un seul flux de travail fluide.

Découvrez Claude Code en action, du concept à la validation dans un seul flux de travail fluide.
Matillion est une plateforme d'intégration de données qui aide les équipes data à créer et gérer des pipelines pour l'IA et l'analytique. Des milliers d'entreprises, dont Cisco, London Stock Exchange Group et Slack, utilisent Matillion pour leurs analyses, leur analytique opérationnelle et leurs applications de machine learning.
Avec Claude, Matillion :
Matillion a choisi Claude après 18 mois de tests auprès de plusieurs fournisseurs de modèles. Leur cadre d'évaluation mesurait trois capacités essentielles : la compréhension de langages propriétaires spécifiques à un domaine, le raisonnement multi-étapes pour les opérations de données complexes, et la fiabilité des décisions d'appel d'outils. Claude a systématiquement surpassé les autres modèles sur l'ensemble des critères. Plus précisément :
• Raisonnement et appels d'outils performants : Claude a démontré une capacité sophistiquée à sélectionner les bons outils et à séquencer des opérations complexes — essentiel pour la gestion autonome des pipelines de données
• Fiabilité : Des performances stables d'une version du modèle à l'autre ont permis à Matillion de passer aux nouvelles versions de Claude sans reconstruire l'ensemble de leur architecture de prompts
• Aucun entraînement requis : Claude a compris immédiatement le langage propriétaire de Matillion basé sur YAML (Data Pipeline Language, DPL), malgré l'absence de données d'entraînement publiques
• Comportement cohérent : L'équipe n'a jamais eu à « se battre » avec le modèle pour obtenir les résultats souhaités
« La décision de choisir Claude était entièrement fondée sur les données », explique Julian Wiffen, Chief of AI and Data Science chez Matillion. « Nous avons testé plusieurs modèles en parallèle, et Claude a systématiquement produit les meilleurs résultats en termes de précision et de fiabilité. »
Les équipes d'ingénierie de données peinent à suivre la demande. Les dirigeants qui demandent des tableaux de bord et les analystes qui ont besoin de nouvelles sources de données attendent souvent des semaines, voire des mois, pour des requêtes simples. Ce problème est sur le point de s'aggraver : l'adoption de l'IA générative augmente considérablement la charge pesant sur des équipes data déjà sollicitées, qui doivent construire des pipelines alimentant les processus d'IA tout en gérant le flux de données que ces systèmes génèrent.
L'ingénierie de données était devenue un goulot d'étranglement critique. Même les demandes simples devaient attendre des mois dans les backlogs, créant des frictions dans l'ensemble des organisations. Matillion a reconnu que les approches traditionnelles ne pouvaient pas s'adapter à la demande explosive de création et de maintenance de pipelines de données.
La transformation a commencé lorsque Matillion a découvert que son langage propriétaire Data Pipeline Language, conçu pour être lisible par l'humain, était également lisible par la machine. Bien qu'ils aient initialement supposé que les LLM ne pourraient pas comprendre un langage sans données d'entraînement publiques, Claude leur a prouvé le contraire. Le modèle a démontré une compréhension sophistiquée de leur format basé sur YAML, respectant les instructions et générant des définitions de pipeline valides de manière cohérente.
Matillion a construit un cadre de test sophistiqué utilisant trois LLM en concert — l'un exécutant Maia, un autre jouant le rôle de testeur, et un troisième agissant comme juge pour vérifier les résultats. Ce cadre leur a permis de mesurer les performances de manière tangible : suivi du temps écoulé, précision de la sélection d'outils et consommation de jetons sur des ensembles de scénarios.
L'évolution de la simple auto-documentation vers des capacités agentiques complètes a pris deux ans, mais les résultats justifient l'investissement. Maia peut désormais accéder à la quasi-totalité des fonctionnalités du Data Productivity Cloud via des appels d'outils, réalisant des opérations qui mettent même les ingénieurs data les plus expérimentés au défi.
« Maia gère tout, de la migration des ETL existants à la construction de pipelines prêts pour la production à la vitesse de la machine, avec une qualité de logique en laquelle nous pouvons avoir confiance », a déclaré Ammad Baig, Director of Enterprise Data & AI Services chez Precision Medicine Group. « Cela accélère fondamentalement notre flux de travail tout en réduisant la charge de travail manuelle. »
Depuis la disponibilité générale de Maia en juin, les clients constatent des changements significatifs dans leur mode de fonctionnement. Les équipes produisent davantage avec leurs ressources existantes, les analystes pouvant désormais gérer en libre-service l'infrastructure de données qui nécessitait auparavant une expertise spécialisée en ingénierie.
L'impact va au-delà des clients externes. Quatre-vingts pour cent des développeurs de Matillion ont adopté Claude Code, signalant une réduction moyenne de 41 % du temps consacré aux pull requests, selon des enquêtes internes. Cela crée un effet multiplicateur : les développeurs juniors traitent des tâches qui revenaient auparavant aux seniors, tandis que les développeurs seniors s'attaquent à des travaux que seuls les responsables techniques les plus expérimentés pouvaient gérer.
À l'avenir, Matillion prévoit d'étendre les capacités de Maia pour capturer des informations sémantiques à partir de catalogues de données, de pipelines existants et de la documentation. L'objectif est de donner à Maia une expertise métier sur le paysage de données unique et la terminologie commerciale de chaque client — comprendre non seulement qu'il existe des champs de revenus dans une base de données, mais lesquels représentent la véritable source de vérité pour des contextes métier spécifiques.
« Capturer ces types de détails sémantiques et permettre à Maia de les utiliser efficacement est notre prochain défi », explique Julian. « Les modèles d'Anthropic seront essentiels pour y parvenir. »