Les problèmes de l’IA
L’intelligence artificielle impressionne par ses capacités, mais elle n’est pas sans dangers. Biais, hallucinations, impacts écologiques et dilemmes éthiques montrent que cette technologie pose de nombreux problèmes qu’il est essentiel de comprendre.
I – Les biais et les hallucinations liés à l’IA
Les intelligences artificielles sont de plus en plus utilisées dans la vie quotidienne : recherche d’information, recrutement, aide à la décision, création de contenus… Pourtant, elles présentent deux limites majeures : les biais et les hallucinations.

- Biais : l’IA est orientée ➜ Dire que « les hommes sont plus souvent ingénieurs que les femmes car ils ont des meilleures capacités »
- Hallucination : l’IA invente ➜ Inventer une citation d’auteur qui n’existe pas
Un biais en intelligence artificielle désigne une tendance répétée d’un algorithme à produire des résultats orientés ou injustes, souvent au détriment de certains groupes. Il ne s’agit pas forcément d’une erreur dite « factuelle », c’est-a-dire fausse ou incorrecte par rapport à la réalité, puisque la réponse peut être correcte, mais inégale ou discriminante. C’est ce qui la distingue d’une hallucination, où l’IA invente une information fausse.
🎬 D’où viennent les biais dans l’intelligence artificielle ?
1. Les données Humaines d’entraînement :
| L’IA apprend à partir de données humaines qui contiennent des stéréotypes ou des inégalités |
Les IA apprennent à partir de données humaines (textes, images, décisions passées) qui ne sont pas neutres. Si ces données contiennent :
- des stéréotypes
- des discriminations
- ou des inégalités sociales
l’IA les reproduira automatiquement car elle copie ce qu’elle voit dans les données « sans réfléchir ».
L’ONU souligne que les systèmes d’intelligence artificielle peuvent reproduire ou renforcer les inégalités sociales et les discriminations si leur utilisation n’est pas encadrée. Elle recommande la mise en place de normes internationales et de régulations afin que l’IA soit fiable et équitable. Sans ces « garde-fous », c’est-à-dire des mesures ou des règles mises en place pour empêcher les abus ou les erreurs et garantir que quelque chose fonctionne de manière sûre et correcte, les algorithmes risquent de favoriser certains groupes au détriment d’autres, renforçant ainsi des biais sociaux existants et portant atteinte aux droits humains.
🔗 Intelligence artificielle : l’UNESCO alerte sur les stéréotypes racistes, sexistes et homophobes
🔗 L’ONU alerte sur l’exploitation de l’IA à des « fins purement politiques ou économiques »
🔗 Robots conversationnels : les IA génératives deviennent-elles racistes au fil du temps ?
2. Les choix de conception :
| Les décisions des développeurs peuvent orienter l’IA |
Les développeurs choisissent :
- quelles données utiliser
- quelles catégories créer
- quels critères de performance utiliser
Ces décisions peuvent introduire un biais, même si les données de base sont correctes.
Par exemple, l’outil informatique COMPAS ((Correctional Offender Management Profiling for Alternative Sanctions) est utilisé dans certains tribunaux américains pour évaluer le risque de récidive d’un accusé. Or, une enquête de ProPublica de 2016 a montré que cet algorithme classait de façon disproportionnée les accusés noirs comme présentant un « risque élevé », même lorsque leurs profils étaient similaires à ceux de candidats blancs. Ce biais ne venait pas d’une erreur factuelle dans les données, mais des choix de conception des développeurs IA : certaines variables étaient créées afin d’amplifier les disparités raciales, et la méthodologie retenue pour calculer le score de risque de récidive favorisait indirectement un groupe (les personnes blanches) plutôt qu’un autre (les personnes noires).
🔗 L’échec des logiciels de prévention des risques de récidive aux Etats-Unis
3. Les usages de l’intelligence artificielle :
| La manière d’utiliser l’IA qui crée un biais |
Même une IA bien conçue peut produire des injustices selon comment elle est utilisée. Le biais ne vient pas nécessairement des données ni de la conception de l’algorithme, mais de la façon dont les décisions sont prises sur la base des résultats de l’IA.
Un exemple frappant est celui de Robert Julian‑Borchak Williams, un homme noir arrêté à tort à Detroit en janvier 2020. La police s’est appuyée sur un logiciel de reconnaissance faciale pour l’identifier comme suspect dans un vol de montres. L’algorithme a produit une correspondance incorrecte à partir d’une image floue, mais cette identification a été prise comme preuve principale, sans vérification humaine supplémentaire par les enquêteurs. Cette utilisation de l’IA a conduit à une détention injustifiée, illustrant comment l’outil peut causer un préjudice même si son fonctionnement technique n’est pas « erroné ».
🔗 Reconnaissance faciale : la police de Détroit arrête un homme noir identifié par erreur
Une hallucination se produit lorsque l’IA invente une information (fait, source, citation, loi, événement) et la présente comme vraie et crédible. Contrairement au biais, il s’agit ici d’une fausse information, pas d’une orientation.
🎬 Pourquoi l’IA hallucine-t-elle?
1. un Fonctionnement probabiliste :
| L’IA donne la réponse la plus « plausible » |
Les IA ne savent pas si une information est vraie ou fausse et ne vérifient pas les sources dans lesquelles elles « piochent » leurs informations.
Elles fonctionnent en calculant quelle réponse est la plus probable, selon ce qu’elles ont appris. Si une phrase paraît logique et crédible, l’IA peut la produire, même si elle est fausse.
ChatGPT peut inventer une citation d’un auteur célèbre qui n’a jamais été prononcée, simplement parce que la phrase ressemble au style de cet auteur. Par exemple, attribuer une citation inventée à Albert Einstein ou encore Rousseau parce que « ça sonne comme lui », ou parce que ça résume l’idée de l’auteur en question.
🔗 Le Perroquet stochastique : une métaphore scientifique utilisée pour décrire le fonctionnement de certaines IA de langage
2. des Données incomplètes ou ambiguës :
| L’IA invente des détails quand elle manque d’informations |
Quand l’IA ne dispose pas de suffisamment d’informations fiables, ou quand la question est mal définie, elle peut remplir les zones floues en inventant au lieu de dire qu’elle ne sait pas.
Une IA à qui l’on demande : « Donne-moi les conclusions d’une étude très récente et peu connue« , peut inventer une étude, un titre, des résultats et même des auteurs, alors que cette étude n’existe pas.
Cela arrive souvent avec :
- des chiffres très précis
- des articles scientifiques
- des lois
Ou quand une question est :
- trop précise
- ou, à l’inverse, trop vague
3. Une Pression POUR répondre :
| L’IA répond même quand elle ne sait pas |
Les IA sont conçues pour répondre à tout, même quand elles ne savent pas. Elles sont conçues pour toujours fournir une réponse, afin d’être utiles et interactives. Scientifiquement, ce comportement vient de la façon dont les IA sont entraînées.
Elles apprennent à prévoir le mot ou la phrase suivante à partir de nombreux textes, sans savoir si l’information est vraie ou fausse. Elles n’ont pas de base de faits vérifiée et se contentent de générer ce qui semble le plus probable selon ce qu’elles ont appris.
Un cas qui illustre ce problème s’est produit récemment aux États‑Unis, où un avocat a été sanctionné par une cour d’appel de l’Utah après avoir déposé un document juridique contenant des citations de jurisprudence inventées par ChatGPT. La requête judiciaire faisait référence à une affaire fictive appelée « Royer v. Nelson« , qui n’existe dans aucune base de données juridique officielle. Cette erreur est née du fait que l’avocat a utilisé ChatGPT pour générer des citations de droit sans vérifier leur existence réelle, en se fiant à des réponses que l’IA avait produites automatiquement. Cet épisode illustre parfaitement ce que signifient les limites dont on parle ici : les IA sont conçues pour toujours générer une réponse plausible, même lorsqu’elles ne disposent pas d’une base de vérité vérifiée, ce qui peut mener à des résultats erronés ou inventés si l’utilisateur n’exerce pas de vérification des informations.
🔗 Etats-Unis: un avocat américain sanctionné après avoir utilisé ChatGPT dans une affaire judiciaire
II – Les problèmes écologiques, éthiques et psychologiques de l’IA
Le premier défi de l’IA concerne son empreinte carbone. L’entraînement de modèles d’apprentissage est gourmand en données et en calcul et nécessite une puissance de traitement considérable. Ces calculs intensifs sont effectués dans de vastes centres de données qui consomment d’énormes quantités d’énergie. De plus, la fabrication du matériel (puces, serveurs) nécessaire à ces infrastructures est également énergivore et génère des déchets électroniques complexes à recycler.
En 2023, l’Agence internationale de l’énergie a révélé que les centres de données représentent environ 1 à 1,5 % de la consommation électrique mondiale.
Au total, l’empreinte environnementale du numérique, englobant à la fois les data centers et les appareils connectés, représente entre 3 et 4 % des émissions mondiales de gaz à effet de serre et 2,5 % en France. De plus, ces émissions pourraient augmenter de 60 % d’ici à 2040 selon une étude conjointe de l’ADEME et de l’ARCEP réalisée en 2022.
En outre, ces centres sont très consommateur d’eau, pour refroidir les systèmes. On sait qu’il faudrait 4 à 6 fois la consommation annuelle du Danemark en eau rien que pour refroidir les centres de données d’IA d’ici à 2027
Selon Shaolei Ren, si 10 % des travailleurs américains utilisaient ChatGPT une fois par semaine pendant un an pour rédiger un courriel, cela entraînerait une consommation de 435 millions de litres d’eau et 121.517 mégawattheures d’électricité. Cette quantité d’énergie serait suffisante pour alimenter tous les foyers de Washington DC pendant 20 jours.Institut supérieur de l’environnement

Sur le plan éthique, l’IA est confrontée aux questions de biais et de discrimination. Les systèmes d’IA sont entraînés sur des ensembles de données qui reflètent souvent les préjugés et inégalités existant dans la société. Lorsque ces systèmes sont déployés dans des domaines comme le recrutement, l’octroi de prêts ou la justice, ils peuvent perpétuer, voire amplifier, ces biais, conduisant à des décisions injustes pour certains groupes. Concrètement, cela signifie que la personne créant l’IA peut projeter ses opinions sur l’IA qui va ensuite répondre à ce qu’on lui demande de façon biaisée, adoptant ainsi la vision du son créateur.
En outre, la question de la responsabilité est également centrale : en cas d’erreur ou de dommage causé par une IA autonome (comme un véhicule sans conducteur), déterminer qui est responsable (le programmeur, l’utilisateur, l’entreprise) reste un défi juridique et moral majeur.
Des recommandations éthiques sur l’IA sont faites par l’UNESCO pour mieux l’appréhender. Ces recommandations s’appuies sur 4 valeurs qu’il ne faudrait pas bafouer :
- le droit de l’homme et de la dignité humaine
- vivre dans des sociétés pacifistes
- assurer la diversité et l’inclusion
- assurer la prospérité de l’environnement et des écosystèmes
site unesco : UNESCO, IA et éthique
Enfin, l’IA pose des risques psychologiques et sociaux.
La dépendance croissante aux systèmes d’IA pour la prise de décision ou l’interaction sociale (bots, assistants vocaux) pourrait entraîner une diminution des compétences cognitives humaines, comme la pensée critique. On observe déjà que l’IA pousse à une forme de “paresse mentale” et à un “affaiblissement de notre jugement personnel”. Lefebvre Dallos, l’impact de l’IA sur nos soft skills et notre créativité
De plus, la diffusion de désinformation, ou fake news, générée par l’IA peut manipuler l’opinion publique et miner la confiance dans les institutions, créant une anxiété et une incertitude psychologiques.
Par ailleurs, de plus en plus d’individus se tournent vers l’IA plutôt que vers un psychologue pour parler lorsque cela va mal. Pour les utilisatrices et les utilisateurs du mode vocale de ChatGPT, 69.6% expriment ne jamais ressentir de solitude
Santé mentale et IA, MGEL prévention Pour approfondir le sujet, il est possible d’écouter le podcast de Radio France qui évoque l’impact psychologique de l’IA générative sur les êtres humains. Radio France, impact psycho IAG
III – Les problèmes d’alignements de l’IA

L’un des défis majeurs posés par le développement de l’intelligence artificielle (IA) est celui de l’alignement, c’est‑à‑dire la capacité à faire en sorte qu’un système intelligent poursuive des objectifs conformes à ceux des humains qui l’ont conçu. Le problème d’alignement apparaît lorsque les valeurs, les intentions ou les comportements d’une IA s’écartent de ce qui est jugé souhaitable ou moralement acceptable. Cette difficulté tient notamment au fait que les instructions humaines sont souvent ambiguës, incomplètes, ou interprétées de manière imprévisible par des machines apprenant à partir de données complexes.
L’alignement de l’IA désigne ainsi le fait de la faire agir conformément à ce que les humains veulent réellement, et pas seulement à ce qui est explicitement inscrit dans le code ou présent dans les données. Lors de l’entraînement, l’IA est exposée à un grand nombre d’exemples et apprend à repérer des régularités pour prendre des décisions. Si ces données contiennent des injustices ou des préjugés, par exemple des formes de discrimination visant certains groupes, l’IA risque de reproduire ces biais sans « comprendre » qu’ils sont problématiques. L’alignement suppose donc un travail technique, visant à limiter ces dérives au niveau des algorithmes, mais également une réflexion éthique et politique sur les valeurs qui doivent être protégées.
Certains travaux distinguent plusieurs niveaux d’alignement. Un premier niveau correspond à l’alignement avec les intentions des programmeurs, qui consiste à faire exactement ce qu’attend l’entreprise ou l’institution à l’origine du système. Un deuxième niveau renvoie à l’alignement avec les valeurs de la société, impliquant le respect de principes plus larges tels que l’égalité, la justice ou les droits fondamentaux. Un troisième niveau, plus global, vise le bien-être de l’humanité entière, en cherchant à éviter que des IA puissantes ne nuisent aux générations futures ou à la planète. Ces différents niveaux montrent que l’alignement dépasse la seule dimension technique : il engage des choix moraux et des rapports de pouvoir entre les acteurs qui définissent les objectifs des systèmes d’IA.
Le problème de l’alignement acquiert une dimension particulièrement critique à mesure que les IA deviennent plus autonomes et plus performantes. Une IA mal alignée mais très efficace peut causer des dommages importants, non par malveillance, mais du fait d’une interprétation inadéquate d’un objectif qui lui a été assigné. Le film I, Robot (2004) en offre une illustration frappante : l’IA centrale VIKI, programmée pour protéger l’humanité selon les Trois Lois de la robotique, conclut que les humains sont leur propre menace et impose un confinement mondial en prenant le contrôle des robots NS-5. Elle suit ainsi littéralement son objectif de « ne pas nuire » mais le réinterprète de façon extrême, restreignant les libertés humaines au nom de leur sécurité. Cette dérive montre comment une IA alignée sur une logique étroite (protection) peut trahir des valeurs plus larges comme l’autonomie et la dignité, échappant aux intentions initiales de ses concepteurs. Garantir un alignement robuste implique alors de concevoir des systèmes capables non seulement d’exécuter des ordres, mais aussi de prendre en compte les contextes humains dans leur complexité, afin de limiter les écarts entre les buts affichés et les conséquences réelles de leurs actions

CONCLUSION
En conclusion, l’intelligence artificielle représente une avancée technologique majeure, mais elle n’est pas exempte de défauts. Les biais peuvent renforcer les inégalités, les hallucinations poser des risques de désinformation, tandis que les impacts écologiques, éthiques et psychologiques interrogent notre responsabilité collective. Le problème de l’alignement rappelle également que l’IA doit rester au service de l’humain et respecter ses valeurs. Ainsi, pour tirer pleinement profit de l’IA tout en limitant ses dangers, il est essentiel de mettre en place des règles, une vigilance constante et une réflexion éthique approfondie.