Évaluez votre organisation sur 25 critères répartis en 5 dimensions. Obtenez un score pondéré, un radar de maturité et exportez votre rapport Excel personnalisé.
1. Stratégie & Vision IA
Ambition, portage dirigeant, feuille de route, ressources
| Critère | Pondération | Niveau — cliquez pour évaluer | |
|---|---|---|---|
|
0
Initial 1 Structuré 2 Optimisé 3 Leader |
Commentaire | ||
| Vision et ambition IA formalisées | ●●● Très imp. |
0Initial
Pas de vision IA formalisée, initiatives ad hoc non coordonnées 1Structuré
Vision exprimée mais non documentée, quelques projets pilotes 2Optimisé
Vision documentée, partagée et portée par le management 3Leader
Vision IA intégrée à la stratégie d'entreprise, révisée régulièrement |
|
| Portage et sponsorship au niveau COMEX / CODIR | ●●● Très imp. |
0Initial
Aucun sponsor identifié, sujets IA portés par la DSI uniquement 1Structuré
Sponsor identifié mais sans mandat clair ni budget dédié 2Optimisé
Sponsor COMEX avec budget dédié et reporting régulier 3Leader
CDO/CAIO au COMEX, IA inscrite à l'agenda stratégique trimestriel |
|
| Feuille de route IA (roadmap) définie et priorisée | ●● Important |
0Initial
Pas de roadmap, projets lancés au fil de l'eau 1Structuré
Roadmap partielle, peu priorisée, non mise à jour 2Optimisé
Roadmap complète, priorisée, révisée semestriellement 3Leader
Roadmap IA intégrée au plan stratégique, KPIs de suivi actifs |
|
| Budget IA dédié et pérennisé | ●● Important |
0Initial
Pas de budget IA identifié, financements ponctuels 1Structuré
Budget annuel alloué mais insuffisant ou non pérenne 2Optimisé
Budget pluriannuel dédié, révisable selon les résultats 3Leader
Investissement IA trackable, ROI mesuré, réallocation dynamique |
|
| Alignement stratégie IA / objectifs métiers | ●●● Très imp. |
0Initial
IA perçue comme projet IT, pas d'ancrage métier 1Structuré
Quelques cas d'usage métier identifiés, sans co-construction 2Optimisé
Initiatives IA co-construites avec les métiers, KPIs communs 3Leader
Chaque initiative IA pilotée par un sponsor métier avec OKRs partagés |
|
2. Données & Infrastructure
Qualité, gouvernance data, MLOps, accès, interopérabilité, sécurité
| Critère | Pondération | Niveau — cliquez pour évaluer | |
|---|---|---|---|
0 Initial1 Structuré2 Optimisé3 Leader |
Commentaire | ||
| Qualité et fiabilité des données disponibles | ●●● Très imp. | 0Initial
Données en silos, qualité non mesurée, peu de confiance 1Structuré
Démarche qualité amorcée sur quelques datasets critiques 2Optimisé
Qualité mesurée, seuils définis, remédiation active 3Leader
Données labellisées AI-ready, monitoring continu, lineage documenté | |
| Gouvernance des données (ownership, catalogue, classification) | ●●● Très imp. | 0Initial
Pas de Data Owner identifié, pas de catalogue de données 1Structuré
Gouvernance définie sur certains domaines, catalogue partiel 2Optimisé
Data Owners nommés, catalogue opérationnel, classification active 3Leader
Gouvernance intégrée au cycle IA, chaque dataset a son niveau AI-readiness | |
| Infrastructure MLOps (entraînement, déploiement, monitoring) | ●● Important | 0Initial
Notebooks locaux, pas de pipeline, déploiement manuel 1Structuré
Environnements partagés, quelques pipelines, CI/CD partiel 2Optimisé
Plateforme MLOps en place, monitoring des modèles en production 3Leader
MLOps industrialisé, réentraînement automatisé, feature store partagé | |
| Accessibilité et partage des données en interne | ●● Important | 0Initial
Données inaccessibles hors équipe propriétaire 1Structuré
Accès partiels via requêtes, processus informels 2Optimisé
Data marketplace interne, habilitations gérées, self-service partiel 3Leader
Plateforme data self-service, APIs documentées, accès temps réel | |
| Interopérabilité et intégration des systèmes sources | ●● Important | 0Initial
Systèmes hétérogènes, intégrations one-shot, pas de standard 1Structuré
Quelques connecteurs, ETL manuel, intégrations fragiles 2Optimisé
Architecture API-first, pipelines automatisés, schémas standardisés 3Leader
Data mesh ou lakehouse unifié, événements temps réel | |
| Sécurité et protection des données utilisées pour l'IA | ●●● Très imp. | 0Initial
Pas de politique sécurité spécifique IA, risques non évalués 1Structuré
RGPD considéré, anonymisation partielle des données d'entraînement 2Optimisé
Privacy by design appliqué, audits de sécurité sur les modèles 3Leader
Chiffrement différentiel, red teaming IA, certifications ISO/SOC2 | |
3. Gouvernance & Éthique IA
Politique IA, gestion des risques, conformité, explicabilité, biais
| Critère | Pondération | Niveau — cliquez pour évaluer | |
|---|---|---|---|
0 Initial1 Structuré2 Optimisé3 Leader |
Commentaire | ||
| Politique et charte IA définies et diffusées | ●●● Très imp. | 0Initial
Aucune politique IA, usage libre et non encadré 1Structuré
Règles informelles ou guidelines non officielles 2Optimisé
Charte IA validée, connue des équipes, révisée annuellement 3Leader
Politique IA intégrée aux processus RH, achats et juridique | |
| Identification et gestion des risques liés à l'IA | ●●● Très imp. | 0Initial
Risques IA non identifiés ni évalués 1Structuré
Cartographie des risques amorcée, pas de plan de mitigation 2Optimisé
Registre des risques IA actif, revue régulière, plans d'action 3Leader
Comité des risques IA, stress tests, assurance qualité des modèles | |
| Conformité réglementaire (AI Act, RGPD, sectorielles) | ●●● Très imp. | 0Initial
Réglementations IA non suivies, risque de non-conformité 1Structuré
Veille réglementaire existante, analyse d'impact non systématique 2Optimisé
Conformité AI Act analysée, plan de mise en conformité en cours 3Leader
Conformité by design, auditée, équipe dédiée regulatory IA | |
| Explicabilité et transparence des modèles IA | ●● Important | 0Initial
Modèles boîtes noires, résultats non expliqués aux utilisateurs 1Structuré
Explainability ponctuelle sur certains modèles critiques 2Optimisé
XAI systématique sur modèles à impact, documentation des décisions 3Leader
Explicabilité temps réel, droit à l'explication opérationnel | |
| Détection et correction des biais algorithmiques | ●● Important | 0Initial
Biais non recherchés ni mesurés dans les modèles 1Structuré
Sensibilisation aux biais, tests informels sur certains modèles 2Optimisé
Tests de fairness systématiques, métriques de biais définies 3Leader
Fairness by design, monitoring continu, débiaisage actif | |
4. Compétences & Organisation
Talents IA internes, formation, structure dédiée, culture data
| Critère | Pondération | Niveau — cliquez pour évaluer | |
|---|---|---|---|
0 Initial1 Structuré2 Optimisé3 Leader |
Commentaire | ||
| Compétences IA internes (data scientists, ML engineers) | ●●● Très imp. | 0Initial
Pas de compétences IA en interne, tout externalisé 1Structuré
Quelques profils IA, équipe réduite, forte dépendance prestataires 2Optimisé
Équipe IA constituée, profils variés, capacité à livrer en autonomie 3Leader
Centre d'excellence IA, attrait des top talents, recherche appliquée | |
| Programme de formation et montée en compétences IA | ●● Important | 0Initial
Pas de formation IA, apprentissage autodidacte uniquement 1Structuré
Formations ponctuelles, pas de parcours structuré 2Optimisé
Programme de formation IA par niveau, suivi des certifications 3Leader
Académie IA interne, formation continue, IA literacy pour tous | |
| Structure organisationnelle dédiée IA (Data Office, AI Lab, CoE) | ●● Important | 0Initial
Pas de structure dédiée, responsabilités IA diffuses 1Structuré
Équipe IA rattachée à la DSI, mandat limité 2Optimisé
Data Office ou AI Lab avec missions claires et périmètre transversal 3Leader
Centre d'excellence IA, modèle hub & spoke, CDO/CAIO au COMEX | |
| Culture data & IA dans l'organisation (adoption, usage quotidien) | ●● Important | 0Initial
IA perçue comme une menace ou un sujet purement technique 1Structuré
Sensibilisation en cours, quelques ambassadeurs IA identifiés 2Optimisé
Culture data-driven installée, IA intégrée aux pratiques métiers 3Leader
Innovation IA bottom-up, chaque direction propose des cas d'usage | |
5. Cas d'usage & Déploiement
Identification des opportunités, POC, industrialisation, ROI, scalabilité
| Critère | Pondération | Niveau — cliquez pour évaluer | |
|---|---|---|---|
0 Initial1 Structuré2 Optimisé3 Leader |
Commentaire | ||
| Processus d'identification et de priorisation des cas d'usage IA | ●●● Très imp. | 0Initial
Cas d'usage choisis par opportunisme ou pression externe 1Structuré
Quelques cas identifiés, priorisation informelle 2Optimisé
Processus de sourcing et scoring des cas d'usage formalisé 3Leader
Pipeline d'innovation IA continu, qualification impact/faisabilité systématique | |
| Capacité à réaliser des POC/pilotes IA rapidement | ●● Important | 0Initial
Pas de POC réalisé, cycles longs et coûteux 1Structuré
Quelques POC réalisés, délais supérieurs à 6 mois 2Optimisé
POC en 6-12 semaines, méthodologie test & learn établie 3Leader
Factory à POC, sprint IA de 4 semaines, go/no-go structuré | |
| Passage pilote → mise en production (industrialisation) | ●●● Très imp. | 0Initial
POC jamais industrialisés, cimetière de projets IA 1Structuré
Quelques modèles en prod, sans processus de passage structuré 2Optimisé
Processus MLOps pour industrialisation, critères de passage définis 3Leader
+50% des POC industrialisés, SLA de prod définis, rollback automatisé | |
| Mesure du ROI et de la valeur créée par les initiatives IA | ●● Important | 0Initial
Pas de mesure du ROI, valeur IA non quantifiée 1Structuré
ROI estimé qualitativement, quelques KPIs de performance 2Optimisé
ROI mesuré par projet, tableaux de bord de valeur IA actifs 3Leader
P&L IA consolidé, contribution IA au CA mesurée et reportée au COMEX | |
| Scalabilité et réplicabilité des solutions IA déployées | ●● Important | 0Initial
Solutions one-shot, non réplicables, fortement couplées au contexte 1Structuré
Quelques patterns réutilisables, scalabilité non planifiée 2Optimisé
Briques IA modulaires, déploiement multi-entités possible 3Leader
Plateforme IA réplicable, marketplace de modèles interne, time-to-value <4 semaines | |
Résultats
Votre profil de maturité IA