Outil d'autoévaluation

Grille de maturité
Intelligence Artificielle

Évaluez votre organisation sur 25 critères répartis en 5 dimensions. Obtenez un score pondéré, un radar de maturité et exportez votre rapport Excel personnalisé.

Stratégie & Vision IA
Données & Infrastructure
Gouvernance & Éthique IA
Compétences & Organisation
Cas d'usage & Déploiement
0 / 25 critères évalués
Score global : —

1. Stratégie & Vision IA

Ambition, portage dirigeant, feuille de route, ressources

— / 3
Critère Pondération Niveau — cliquez pour évaluer
0
Initial
1
Structuré
2
Optimisé
3
Leader
Commentaire
Vision et ambition IA formalisées ●●● Très imp.
0Initial
Pas de vision IA formalisée, initiatives ad hoc non coordonnées
1Structuré
Vision exprimée mais non documentée, quelques projets pilotes
2Optimisé
Vision documentée, partagée et portée par le management
3Leader
Vision IA intégrée à la stratégie d'entreprise, révisée régulièrement
Portage et sponsorship au niveau COMEX / CODIR ●●● Très imp.
0Initial
Aucun sponsor identifié, sujets IA portés par la DSI uniquement
1Structuré
Sponsor identifié mais sans mandat clair ni budget dédié
2Optimisé
Sponsor COMEX avec budget dédié et reporting régulier
3Leader
CDO/CAIO au COMEX, IA inscrite à l'agenda stratégique trimestriel
Feuille de route IA (roadmap) définie et priorisée ●● Important
0Initial
Pas de roadmap, projets lancés au fil de l'eau
1Structuré
Roadmap partielle, peu priorisée, non mise à jour
2Optimisé
Roadmap complète, priorisée, révisée semestriellement
3Leader
Roadmap IA intégrée au plan stratégique, KPIs de suivi actifs
Budget IA dédié et pérennisé ●● Important
0Initial
Pas de budget IA identifié, financements ponctuels
1Structuré
Budget annuel alloué mais insuffisant ou non pérenne
2Optimisé
Budget pluriannuel dédié, révisable selon les résultats
3Leader
Investissement IA trackable, ROI mesuré, réallocation dynamique
Alignement stratégie IA / objectifs métiers ●●● Très imp.
0Initial
IA perçue comme projet IT, pas d'ancrage métier
1Structuré
Quelques cas d'usage métier identifiés, sans co-construction
2Optimisé
Initiatives IA co-construites avec les métiers, KPIs communs
3Leader
Chaque initiative IA pilotée par un sponsor métier avec OKRs partagés

2. Données & Infrastructure

Qualité, gouvernance data, MLOps, accès, interopérabilité, sécurité

— / 3
CritèrePondérationNiveau — cliquez pour évaluer
0
Initial
1
Structuré
2
Optimisé
3
Leader
Commentaire
Qualité et fiabilité des données disponibles●●● Très imp.
0Initial
Données en silos, qualité non mesurée, peu de confiance
1Structuré
Démarche qualité amorcée sur quelques datasets critiques
2Optimisé
Qualité mesurée, seuils définis, remédiation active
3Leader
Données labellisées AI-ready, monitoring continu, lineage documenté
Gouvernance des données (ownership, catalogue, classification)●●● Très imp.
0Initial
Pas de Data Owner identifié, pas de catalogue de données
1Structuré
Gouvernance définie sur certains domaines, catalogue partiel
2Optimisé
Data Owners nommés, catalogue opérationnel, classification active
3Leader
Gouvernance intégrée au cycle IA, chaque dataset a son niveau AI-readiness
Infrastructure MLOps (entraînement, déploiement, monitoring)●● Important
0Initial
Notebooks locaux, pas de pipeline, déploiement manuel
1Structuré
Environnements partagés, quelques pipelines, CI/CD partiel
2Optimisé
Plateforme MLOps en place, monitoring des modèles en production
3Leader
MLOps industrialisé, réentraînement automatisé, feature store partagé
Accessibilité et partage des données en interne●● Important
0Initial
Données inaccessibles hors équipe propriétaire
1Structuré
Accès partiels via requêtes, processus informels
2Optimisé
Data marketplace interne, habilitations gérées, self-service partiel
3Leader
Plateforme data self-service, APIs documentées, accès temps réel
Interopérabilité et intégration des systèmes sources●● Important
0Initial
Systèmes hétérogènes, intégrations one-shot, pas de standard
1Structuré
Quelques connecteurs, ETL manuel, intégrations fragiles
2Optimisé
Architecture API-first, pipelines automatisés, schémas standardisés
3Leader
Data mesh ou lakehouse unifié, événements temps réel
Sécurité et protection des données utilisées pour l'IA●●● Très imp.
0Initial
Pas de politique sécurité spécifique IA, risques non évalués
1Structuré
RGPD considéré, anonymisation partielle des données d'entraînement
2Optimisé
Privacy by design appliqué, audits de sécurité sur les modèles
3Leader
Chiffrement différentiel, red teaming IA, certifications ISO/SOC2

3. Gouvernance & Éthique IA

Politique IA, gestion des risques, conformité, explicabilité, biais

— / 3
CritèrePondérationNiveau — cliquez pour évaluer
0
Initial
1
Structuré
2
Optimisé
3
Leader
Commentaire
Politique et charte IA définies et diffusées●●● Très imp.
0Initial
Aucune politique IA, usage libre et non encadré
1Structuré
Règles informelles ou guidelines non officielles
2Optimisé
Charte IA validée, connue des équipes, révisée annuellement
3Leader
Politique IA intégrée aux processus RH, achats et juridique
Identification et gestion des risques liés à l'IA●●● Très imp.
0Initial
Risques IA non identifiés ni évalués
1Structuré
Cartographie des risques amorcée, pas de plan de mitigation
2Optimisé
Registre des risques IA actif, revue régulière, plans d'action
3Leader
Comité des risques IA, stress tests, assurance qualité des modèles
Conformité réglementaire (AI Act, RGPD, sectorielles)●●● Très imp.
0Initial
Réglementations IA non suivies, risque de non-conformité
1Structuré
Veille réglementaire existante, analyse d'impact non systématique
2Optimisé
Conformité AI Act analysée, plan de mise en conformité en cours
3Leader
Conformité by design, auditée, équipe dédiée regulatory IA
Explicabilité et transparence des modèles IA●● Important
0Initial
Modèles boîtes noires, résultats non expliqués aux utilisateurs
1Structuré
Explainability ponctuelle sur certains modèles critiques
2Optimisé
XAI systématique sur modèles à impact, documentation des décisions
3Leader
Explicabilité temps réel, droit à l'explication opérationnel
Détection et correction des biais algorithmiques●● Important
0Initial
Biais non recherchés ni mesurés dans les modèles
1Structuré
Sensibilisation aux biais, tests informels sur certains modèles
2Optimisé
Tests de fairness systématiques, métriques de biais définies
3Leader
Fairness by design, monitoring continu, débiaisage actif

4. Compétences & Organisation

Talents IA internes, formation, structure dédiée, culture data

— / 3
CritèrePondérationNiveau — cliquez pour évaluer
0
Initial
1
Structuré
2
Optimisé
3
Leader
Commentaire
Compétences IA internes (data scientists, ML engineers)●●● Très imp.
0Initial
Pas de compétences IA en interne, tout externalisé
1Structuré
Quelques profils IA, équipe réduite, forte dépendance prestataires
2Optimisé
Équipe IA constituée, profils variés, capacité à livrer en autonomie
3Leader
Centre d'excellence IA, attrait des top talents, recherche appliquée
Programme de formation et montée en compétences IA●● Important
0Initial
Pas de formation IA, apprentissage autodidacte uniquement
1Structuré
Formations ponctuelles, pas de parcours structuré
2Optimisé
Programme de formation IA par niveau, suivi des certifications
3Leader
Académie IA interne, formation continue, IA literacy pour tous
Structure organisationnelle dédiée IA (Data Office, AI Lab, CoE)●● Important
0Initial
Pas de structure dédiée, responsabilités IA diffuses
1Structuré
Équipe IA rattachée à la DSI, mandat limité
2Optimisé
Data Office ou AI Lab avec missions claires et périmètre transversal
3Leader
Centre d'excellence IA, modèle hub & spoke, CDO/CAIO au COMEX
Culture data & IA dans l'organisation (adoption, usage quotidien)●● Important
0Initial
IA perçue comme une menace ou un sujet purement technique
1Structuré
Sensibilisation en cours, quelques ambassadeurs IA identifiés
2Optimisé
Culture data-driven installée, IA intégrée aux pratiques métiers
3Leader
Innovation IA bottom-up, chaque direction propose des cas d'usage

5. Cas d'usage & Déploiement

Identification des opportunités, POC, industrialisation, ROI, scalabilité

— / 3
CritèrePondérationNiveau — cliquez pour évaluer
0
Initial
1
Structuré
2
Optimisé
3
Leader
Commentaire
Processus d'identification et de priorisation des cas d'usage IA●●● Très imp.
0Initial
Cas d'usage choisis par opportunisme ou pression externe
1Structuré
Quelques cas identifiés, priorisation informelle
2Optimisé
Processus de sourcing et scoring des cas d'usage formalisé
3Leader
Pipeline d'innovation IA continu, qualification impact/faisabilité systématique
Capacité à réaliser des POC/pilotes IA rapidement●● Important
0Initial
Pas de POC réalisé, cycles longs et coûteux
1Structuré
Quelques POC réalisés, délais supérieurs à 6 mois
2Optimisé
POC en 6-12 semaines, méthodologie test & learn établie
3Leader
Factory à POC, sprint IA de 4 semaines, go/no-go structuré
Passage pilote → mise en production (industrialisation)●●● Très imp.
0Initial
POC jamais industrialisés, cimetière de projets IA
1Structuré
Quelques modèles en prod, sans processus de passage structuré
2Optimisé
Processus MLOps pour industrialisation, critères de passage définis
3Leader
+50% des POC industrialisés, SLA de prod définis, rollback automatisé
Mesure du ROI et de la valeur créée par les initiatives IA●● Important
0Initial
Pas de mesure du ROI, valeur IA non quantifiée
1Structuré
ROI estimé qualitativement, quelques KPIs de performance
2Optimisé
ROI mesuré par projet, tableaux de bord de valeur IA actifs
3Leader
P&L IA consolidé, contribution IA au CA mesurée et reportée au COMEX
Scalabilité et réplicabilité des solutions IA déployées●● Important
0Initial
Solutions one-shot, non réplicables, fortement couplées au contexte
1Structuré
Quelques patterns réutilisables, scalabilité non planifiée
2Optimisé
Briques IA modulaires, déploiement multi-entités possible
3Leader
Plateforme IA réplicable, marketplace de modèles interne, time-to-value <4 semaines

Résultats

Votre profil de maturité IA

/3
Complétez l'évaluation
Évaluez les 25 critères pour obtenir votre indice de maturité IA.
Stratégie & Vision
Données & Infrastructure
Gouvernance & Éthique
Compétences & Org.
Cas d'usage & Dépl.