Réglementations mondiales sur l’IA : les conseils d’administration sont-ils à la hauteur ?
Publié le 17 juillet 2025
- Data & intelligence artificielle

L’intelligence artificielle n’est plus une tendance technologique : elle s’impose désormais comme une priorité stratégique à part entière. À mesure qu’elle s’intègre dans les produits, services et processus décisionnels des entreprises, les conseils d’administration ne peuvent plus se contenter d’observer en retrait.
Le cadre réglementaire évolue à grande vitesse
Les régulateurs du monde entier s’efforcent de rattraper le rythme effréné de l’innovation en matière d’IA, donnant naissance à un patchwork complexe de normes en constante évolution. Le Règlement européen sur l’IA, l’AI Act (en vigueur depuis août 2024 et pleinement applicable dès février 2025) a donné le ton, mais il est loin d’être isolé. Des États-Unis à la Chine, de Singapour à l’Arabie Saoudite, chaque gouvernement façonne sa propre vision de l’IA, avec des priorités, des périmètres et des calendriers différents.
Pour les conseils d’administration, cela signifie que les risques existants (opérationnels, juridiques, réputationnels ou stratégiques) sont amplifiés, tandis que de nouveaux risques inédits apparaissent, liés aux usages intentionnels ou non de l’IA. Une compréhension fragmentée de ces risques au sein de l’entreprise compromet la capacité du conseil d’administration à prendre des décisions éclairées. Ignorer ses obligations réglementaires — ou pire, penser que cela relève d’un autre service — expose l’entreprise à des sanctions, des litiges, voire à une perte de confiance des clients et des partenaires. Ne pas maîtriser les risques liés à l’IA peut également nuire à la stratégie IT globale et compromettre la création de valeur attendue des investissements en IA.
Chaque entreprise doit donc trouver le juste équilibre entre innovation et maîtrise.
Un paysage réglementaire complexe et mouvant
Il n’existe pas de cadre mondial unifié. Certaines lois sont déjà en vigueur, d’autres encore en discussion. Certaines s’appliquent à tous les secteurs (comme l’AI Act), d’autres sont spécifiques (comme celles en cours d’élaboration dans la santé ou la finance aux États-Unis). Beaucoup ont une portée extraterritoriale, s’appliquant à des entreprises situées hors du pays d’origine.
Pour les groupes internationaux, cela implique souvent d’adopter une approche par « plus petit dénominateur commun élevé » : appliquer la norme la plus exigeante à l’ensemble des entités concernées.
Autre difficulté : les systèmes d’IA interagissent avec des cadres juridiques existants : RGPD, devoir de vigilance, etc. Il est donc essentiel d’assurer la cohérence entre les réglementations en place et les nouvelles exigences.
Not everyone agrees on what constitutes AI. This matters because compliance often starts with identifying what systems fall under regulatory scope – and when definitions vary, things get difficult. Boards must ensure their organizations are applying consistent and transparent definitions of AI across the business.
Respecter la loi est un minimum. Mais les attentes vont bien au-delà. Les régulateurs comme les consommateurs exigent une IA responsable. Biais, opacité des algorithmes, atteintes à la vie privée : autant de risques qui peuvent nuire à l’image, même en cas de conformité formelle. Il est donc crucial de suivre les cadres éthiques, comme les Principes de l’OCDE ou les travaux de l’AI Action Summit.
La gestion responsable de l’IA mobilise de nombreuses fonctions : juridique, conformité, IT, data, cybersécurité, achats, opérations… Les conseils d’administration doivent s’assurer que ces équipes collaborent efficacement, sans silos, pour suivre les évolutions réglementaires, évaluer les risques et encadrer les usages.
L’IA soulève des enjeux inédits : opacité des modèles, qualité des données, biais, sécurité évolutive. Les conseils doivent s’assurer que l’entreprise dispose d’une gouvernance adaptée, d’une organisation claire, de formations pertinentes et des bons outils pour y faire face. Sans ces fondations, les entreprises risquent non seulement de perdre en compétitivité, mais aussi de décevoir les attentes des clients en matière de technologie, de performance et de confiance.
Anticiper et répondre aux réglementations mondiales sur l’IA
Dans les années à venir, les entreprises vont devoir structurer leur stratégie IA. Pour accompagner cette transformation, les conseils d’administration doivent comprendre les impacts de cette stratégie et les risques associés. Une approche proactive, éclairée et structurée de la gouvernance de l’IA devient un véritable levier de compétitivité.
Suivre l’évolution rapide des réglementations est indispensable pour maîtriser les risques de conformité et de réputation.
Le Global AI Regulations Tracker de Wavestone

L’équipe Risk Advisory de Wavestone a développé un outil dynamique de suivi des réglementations IA à l’échelle mondiale. Il permet aux entreprises de :
- Cibler les juridictions pertinentes selon leur empreinte géographique
- Aligner les exigences réglementaires avec les cadres de gouvernance, politiques et standards existants
- Identifier les écarts entre les pratiques actuelles et les attentes réglementaires
- Favoriser l’action transversale entre les parties prenantes (juridique, data, cybersécurité, achats, data science…)
- Produire des rapports stratégiques pour informer les conseils d’administration et piloter une gouvernance responsable de l’IA
Le tracker est mis à jour en continu pour refléter l’évolution des textes et des pratiques.
Auteur
-
Madeleine Thirsk
Manager, United Kingdom
Wavestone
LinkedIn