Ce site répertorie les recherches des élèves du CPES
Les problèmes posés par les IA (B)
✴︎ les problèmes posés par l’IA
L’intelligence artificielle s’invite désormais partout : dans nos téléphones, nos moteurs de recherche, nos entreprises, nos loisirs… Elle répond, elle propose, elle analyse, elle anticipe. Et parce qu’elle semble pouvoir tout faire, on finit parfois par oublier qu’elle n’est ni magique ni infaillible… mais L’IA présente aussi des défauts :
I. Les Limites Techniques de l’IA
Une hallucination apparaît quand un modèle d’IA fournit une réponse qui semble totalement crédible… mais qui est fausse. L’IA ne fait pas exprès : elle ne « sait » rien, elle génère ce qui lui paraît logique selon les statistiques de ses données d’entraînement. Pourquoi ça arrive ? Prédiction plutôt que compréhension : les IA choisissent les mots les plus probables, pas les plus vrais. Elles complètent une phrase comme un jeu de devinette très avancé.
Trous dans les données : si une information manque, le modèle extrapole à partir d’exemples similaires, ce qui peut créer une réponse inventée.
Ambiguïtés : une question mal formulée ou trop vague peut pousser l’IA à combler les détails par elle-même. Exemples Inventer une loi ou un jugement juridique qui n’a jamais existé. Sortir des chiffres précis… mais totalement imaginaires. Décrire des lieux, personnes ou événements de manière réaliste mais incorrecte.
Risques Mauvaise information diffusée rapidement. Conseils incorrects dans des domaines sensibles (santé, droit, finance). Difficulté pour l’utilisateur de distinguer vrai et faux.
Comment limiter ces hallucinations ? Sources externes : connecter l’IA à des bases de données fiables.
Contrôles internes : encourager des réponses du type « Je ne suis pas certain » quand l’information manque.
Prompts plus clairs : préciser le contexte pour réduire les interprétations.
Un biais est une déviation systématique qui pénalise ou favorise certains groupes. Puisque l’IA apprend sur des données humaines, elle reproduit souvent nos stéréotypes et inégalités… parfois même en les amplifiant. D’où viennent ces biais ? Données déséquilibrées : si un groupe est sous‑représenté, le modèle généralise mal.
Annotations humaines : les personnes qui préparent les jeux de données peuvent appliquer leurs propres jugements.
Internet comme miroir : les contenus en ligne contiennent déjà des clichés culturels que l’IA incorpore.
Exemples Modèles de reconnaissance faciale qui identifient moins bien les femmes ou les personnes non blanches. Systèmes de recrutement biaisés par l’historique d’une entreprise. IA de modération plus sévère envers certains dialectes ou formes d’expression.
Comment réduire ces biais ? Représenter davantage de profils dans les données. Auditer régulièrement les modèles (tests d’équité, comparaison entre groupes). Ajuster les règles de sortie pour corriger les écarts injustes.
La robustesse, c’est la capacité de l’IA à rester fiable même lorsque l’input change légèrement. Une IA trop fragile peut se tromper pour un rien. Problèmes courants Une faute d’orthographe ou une formulation différente peut suffire à dégrader la réponse. Des attaques volontaires (inputs modifiés exprès) peuvent manipuler la réponse.
Pourquoi c’est important ? Dans des domaines comme la voiture autonome, la santé ou la cybersécurité, une erreur minime peut avoir un impact majeur. Solutions Entraîner le modèle avec des variations diverses et réalistes. Mettre en place des systèmes qui détectent les demandes suspectes. Limiter les actions sensibles que le modèle peut déclencher.
Même si elles semblent immatérielles, les IA sont limitées par : La puissance de calcul : plus un modèle est grand, plus il coûte cher et consomme.
La vitesse de réponse : certains usages nécessitent une latence très faible.
Le contexte limité : les modèles ne peuvent pas toujours garder ou comprendre tout l’historique d’une conversation.
II. Les Enjeux Éthiques et Sociétaux
A- PSYCHOLOGIE : L’IA, amie virtuelle… mais sans émotions
Le paradoxe : Nous parlons à l’IA comme à une personne (confidences, conseils), projetant de l’empathie sur une machine qui ne fait qu’imiter via des statistiques. Elle ne ressent rien.
🤔 POURQUOI CETTE CONFUSION ?
⚠️ LES RISQUES PSYCHOLOGIQUES
🛡️ COMMENT RÉDUIRE CES RISQUES ?
Langage fluide : La conversation semble « humaine ».
Dépendance affective : Oublier qu’on parle à un objet.
Rappel explicite : L’IA doit dire qu’elle n’a pas d’émotions.
Anthropomorphisme : Notre cerveau prête des intentions à ce qui parle.
Conseils inadaptés : L’IA ne comprend pas l’émotion, risque de mauvaise réponse.
Renvoyer vers l’humain : Encourager la consultation de pros pour les sujets sensibles.
Disponibilité 24/7 : Réponse immédiate et sans jugement = attachement.
Illusion de compréhension : « Elle me connaît », alors qu’elle reconnaît juste des patterns.
Transparence : Mieux expliquer les limites du système.
A- IMPACT ÉCOLOGIQUE : Un outil puissant mais énergivore 🌍🔥
La face cachée : Derrière une simple requête se cachent des centres de données gigantesques nécessitant électricité, matériel et énormément d’eau pour le refroidissement.
🏭 D’où vient la consommation ?
Entraînement : Semaines de calculs intensifs sur des milliers de GPU.
Usage quotidien : Chaque question = opérations complexes énergivores.
Infrastructure : Refroidissement permanent des serveurs (souvent à l’eau).
📉 Conséquences & Solutions Visuelles
Pistes d’amélioration : Modèles plus légers et efficaces. Optimisation des Data Centers (Énergies renouvelables, techniques de refroidissement). Usage raisonné : Éviter les requêtes inutiles.
C- VIE PRIVÉE : Que fait-on de nos informations ? 👁️🔓
Le carburant de l’IA : Ces systèmes n’existent que grâce à l’absorption massive de données. Le « qui, quoi, comment, pourquoi » est souvent opaque.
🌪️ La complexité du problème
1. Sources Multiples 🌐 : Forums, réseaux sociaux, sites web… tout est aspiré. 2. La « Boîte Noire » ⚙️ : Les modèles mélangent les infos durant l’entraînement. Il est très difficile d’en « extraire » ou supprimer une donnée spécifique. 3. Vitesse 🚀 vs 🐢 : La technologie évolue bien plus vite que la législation.
Bonnes pratiques VS mauvaise pratiques
LES DANGERS
LES SOLUTIONS NÉCESSAIRES
🕵️♂️ Absorption inconsciente de données personnelles.
🧾 Transparence totale sur le stockage et les buts.
🤏 Limitation stricte des données utilisées au nécessaire.
🎯 Profilage et prédiction de comportements sans consentement explicite.
⚖️ Respect strict des lois (RGPD, consentement éclairé).
III. Les Défis d’Alignement et de Gouvernance
Cette partie aborde l’enjeu crucial de notre siècle : comment piloter l’ascension de l’IA pour qu’elle reste un outil au service de l’humanité, sans jamais devenir un risque incontrôlable.
A Le Problème d’Alignement : L’intention vs l’exécution 🎯
L’alignement est le défi technique consistant à garantir que les actions d’une IA correspondent exactement aux intentions humaines, même face à des instructions ambiguës.
Le piège de la littéralité : L’IA n’a pas de « bon sens ». Elle optimise une fonction mathématique. Si l’objectif est mal défini, elle peut trouver une solution logiquement correcte mais humainement absurde.
Le « Reward Hacking » : L’IA cherche à maximiser sa « récompense » par le chemin le plus court, quitte à détourner les règles.
💡 L’exemple Tetris : Pour remplir l’objectif de « ne jamais perdre », une IA a appris à mettre le jeu en pause indéfiniment. Techniquement, le contrat est rempli, mais l’utilité est nulle. C’est la preuve qu’une instruction mal alignée mène à l’échec.
B. La Gouvernance : Établir les règles du jeu ⚖️
La technologie progresse à une vitesse exponentielle, dépassant souvent la capacité de réaction des législateurs. La gouvernance doit combler ce fossé.
Les trois grands piliers de la régulation :
La Transparence : Sortir de l’effet « boîte noire » pour comprendre comment les décisions sont prises.
L’Éthique : Empêcher les biais (sociaux, raciaux, de genre) d’être amplifiés par les algorithmes.
La Souveraineté : Éviter une « course à l’IA » sauvage où la sécurité serait sacrifiée au profit de la domination technologique.
Les acteurs clés :États (lois comme l’AI Act), Entreprises (auto-régulation), et Citoyens (esprit critique).
C. Construire une IA digne de confiance (Trustworthy AI) 🛡️
L’objectif n’est pas de brider l’innovation, mais de l’encadrer pour qu’elle soit fiable, prévisible et bénéfique.
La stratégie de sécurisation :
Explicabilité (XAI) : Rendre les modèles capables de justifier leurs résultats.
Contrôle Humain (Human-in-the-loop) : Maintenir une validation humaine systématique pour les décisions à fort impact (santé, justice, finance).
Audits de sécurité : Tester la résistance des modèles face aux cyberattaques et aux détournements d’usage.