Éthique de l’IA : risques, limites et AI Act
L’intelligence artificielle a connu une ascension fulgurante au cours de la dernière décennie. En effet, avec cette popularité croissante, le grand public et les professionnels ont pris conscience des bénéfices immenses de cette technologie. Toutefois, ils ont aussi identifié ses risques inhérents. Sur aurelienmizeret.com, nous explorons régulièrement ces défis. Aujourd’hui, nous plongeons au cœur d’un sujet crucial : l’éthique de l’IA. Nous analyserons la relation complexe entre les risques algorithmiques, les tentatives d’autorégulation et l’intervention nécessaire du droit. Par ailleurs, cet article s’appuie sur les excellentes réflexions de la séquence « Enjeux et éthique de l’IA » du CNRS (Formation FIDLE).
1. Les risques majeurs justifiant une éthique de l’IA
Avant l’intervention du législateur, la technologie a révélé des failles majeures lors de son déploiement dans le monde réel. Ainsi, deux risques principaux se détachent particulièrement.
A. La discrimination algorithmique : quand la machine amplifie nos biais
Tout d’abord, l’un des mythes les plus tenaces reste celui de la neutralité technologique. En réalité, un système d’intelligence artificielle peut produire des décisions hautement discriminantes. Pour cause, la machine apprend à partir de données historiques. Les humains génèrent ces données, et l’algorithme hérite donc de leurs biais. De ce fait, deux exemples tristement célèbres illustrent parfaitement cette réalité :
-
Le cas COMPAS (justice) : Les juges états-uniens utilisaient ce logiciel pour prédire le risque de récidive des personnes arrêtées (avec un score de 1 à 12).

Cependant, en 2016, une enquête journalistique a révélé un biais majeur. COMPAS surestimait systématiquement le risque de récidive des populations afro-américaines. Inversement, il sous-estimait celui des populations blanches. Malgré ce scandale, certains tribunaux continuent d’utiliser cet outil.
- Le cas Amazon (recrutement) : L’entreprise a tenté de déléguer le tri de ses CV à un algorithme. Très vite, l’outil a commencé à pénaliser les candidatures féminines. L’algorithme avait en effet « appris » sur la base d’un historique d’embauche majoritairement masculin. L’entreprise a donc dû abandonner ce projet.
Par conséquent, ces cas démontrent que la technologie peut discriminer de manière tout aussi diversifiée que l’être humain.
B. L’opacité technologique : au-delà du mythe de la « boîte noire »
Ensuite, on résume souvent l’opacité algorithmique à l’expression « boîte noire ». Pourtant, c’est une vision très réductrice. En réalité, cette opacité se superpose en trois couches distinctes. Nous devons impérativement réussir à les percer :
-
L’opacité par le secret : Il s’agit du fameux secret industriel et commercial. Les entreprises protègent leur code source, tout comme la recette du Coca-Cola. L’information existe bien. Néanmoins, les concepteurs refusent de la partager pour protéger leur propriété intellectuelle.
-
La complexité technique : Même si le code devenait public, l’information ne serait pas intelligible pour le commun des mortels. Sans un effort d’intelligibilité majeur, le système reste totalement opaque. Cela concerne autant les juristes que les utilisateurs finaux.
-
L’opacité par la conception (Design) : C’est la grande particularité du Deep Learning. Le fonctionnement d’un réseau de neurones reste intrinsèquement complexe. À tel point que les concepteurs eux-mêmes peinent parfois à expliquer une décision de la machine. C’est d’ailleurs tout l’enjeu de la recherche sur l’explicabilité algorithmique.
2. La réponse par l’éthique de l’IA : une illusion de contrôle ?
Face à ces risques, nous avons assisté à une multiplication des textes et déclarations éthiques entre 2016 et 2024. Diverses universités, associations et GAFAM ont produit des centaines de documents. Ces chartes se rejoignent souvent sur 9 principes fondamentaux. On y retrouve le respect des droits de l’homme, le contrôle humain, la transparence ou encore la non-discrimination.
Certes, cette approche avait le mérite d’être démocratique et de forger un consensus. Toutefois, l’éthique de l’IA par la simple autorégulation a rapidement montré ses limites fondamentales :
-
Le manque d’indépendance : Les entreprises rémunèrent souvent les comités d’éthique censés les surveiller. Le cas de Timnit Gebru reste emblématique. Google a en effet renvoyé cette éminente chercheuse (pour « conflit d’intérêts »). Elle souhaitait publier une étude révélant les biais des systèmes de l’entreprise.
-
L’absence de contraintes (L’Ethics Washing) : Aucune sanction n’assortit les chartes éthiques. Cette absence de caractère contraignant a logiquement conduit à l’ethics washing. Les entreprises signent des chartes pour redorer leur image. En revanche, elles ne modifient absolument pas la conception de leurs algorithmes. Pire encore, cette approche devient parfois un « concurrent du droit ». Les géants de la tech l’utilisent comme argument pour éviter l’adoption de lois contraignantes.
-
Le manque d’applicabilité : Tout le monde s’accorde sur le principe de « transparence » ou de « non-discrimination ». Néanmoins, au niveau opérationnel, le consensus vole en éclats. Coder concrètement ces principes reste un défi majeur.
3. Du droit à la complémentarité : le règlement Européen et l’éthique de l’IA
Ces limites de l’autorégulation ont rendu l’intervention du droit strictement indispensable. Ce processus a finalement culminé avec l’adoption du Règlement Européen sur l’IA (AI Act) en 2024.
Pour autant, devons-nous jeter la réflexion morale aux oubliettes ? Absolument pas. L’éthique de l’IA conserve aujourd’hui deux fonctions vitales :
Une fonction d’inspiration pour le droit
Les années de débats philosophiques ont largement nourri l’AI Act. Le texte impose des obligations juridiques strictes aux systèmes à haut risque. Celles-ci incluent des exigences de transparence, un contrôle humain et une lutte contre les biais. Ces lois traduisent donc directement les principes moraux forgés depuis 2016.
Une fonction de complémentarité pour les angles morts légaux
Cependant, le droit ne peut pas tout couvrir. La réflexion morale intervient précisément là où la loi s’arrête. De nombreux enjeux cruciaux restent encore hors du spectre des obligations légales strictes de l’AI Act :
-
L’impact environnemental : Aucune limitation contraignante ne régit la consommation énergétique et la pollution liées à l’entraînement des modèles.
-
L’impact sur les travailleurs : Le texte aborde très peu la protection des « petites mains » du numérique (clic-workers).
-
L’inclusivité et le handicap : L’analyse des risques légaux n’intègre pas pleinement la relation spécifique avec les personnes en situation de handicap.
Ainsi, cette démarche offre un cadre idéal pour les entreprises souhaitant dépasser la simple conformité légale. Elle permet notamment de valoriser une démarche inclusive via des labels ou des certifications (à condition de faire appel à des auditeurs indépendants).
Enfin, le droit lui-même sollicite ces bonnes pratiques. Le législateur européen incite fortement les concepteurs de modèles à usage général (comme ChatGPT) à adopter volontairement des codes de conduite.
4. Passer à l’action : sécuriser le facteur humain de votre transformation
La théorie est désormais posée. Mais comment la traduire dans la réalité opérationnelle de votre entreprise ? C’est précisément l’enjeu de mon intervention en tant qu’Executive Sparring Partner. En effet, se contenter d’une mise en conformité technique à l’AI Act ne suffit pas. Signer une charte générique ne suffit pas non plus. Face aux algorithmes, le véritable risque d’échec des projets reste profondément humain, psychologique et émotionnel.
Par conséquent, mon rôle consiste à aider les comités de direction. Nous devons sortir de « l’ethics washing » pour bâtir une véritable boussole décisionnelle. Pour y parvenir, j’utilise un Diagnostic d’Impact Humain et l’analyse de l’intelligence émotionnelle de vos équipes (test R.E.A.L). Ainsi, mon objectif n’est pas d’auditer vos machines. Je viens plutôt structurer le moteur humain qui va les piloter.
Lors de sessions d’échanges directes et sans filtre, nous transformons ensemble cette contrainte technologique en un puissant levier de performance. Nous préparons ainsi vos managers à diriger sereinement des équipes hybrides (Humains + Machines).
Conclusion
L’éthique de l’IA n’est plus une fin en soi. Elle n’est plus non plus un bouclier pour éviter la régulation. Par le passé, elle a constitué le terreau nécessaire à l’émergence d’un droit technologique (l’AI Act). Aujourd’hui, elle redevient une boussole indispensable. Elle nous permet de traiter les immenses défis sociétaux et environnementaux que la loi n’a pas encore codifiés.
Sources : Enjeux et éthique de l’IA – Formation découverte, CNRS – Formation FIDLE.










