[ Contribution] INTELLIGENCES ARTIFICIELLES GÉNÉRATIVES : Au-delà des biais, le risque potentiel des hallucinations


Les intelligences artificielles génératives produisent aujourd'hui des textes, des images et des décisions dont la crédibilité apparente peut aller jusqu’à l’illusion. Parfois cette crédibilité est excessive. Derrière la fluidité se cachent deux grands risques. D’une part les biais dérivés du matériel humain. D’autre part, les hallucinations, ces inventions crédibles mais fausses. Un phénomène encore imparfaitement compris, qui a des impacts concrets sur la recherche, la justice, la médecine, les affaires et la démocratie.
L'un d'entre vous interroge une intelligence artificielle générative. La réponse arrive. Elle est fluide, structurée, confiante. Elle semble maîtriser son sujet. Pourtant, elle est parfois fausse. Pas approximative. Pas imprécise. Fausse. C'est ce que les chercheurs appellent une hallucination. Une définition abrégée est tirée du document de travail qui sert de base à cet article. Un modèle hallucine lorsqu’il génère des informations sans aucun fondement dans la réalité ou les données d'entraînement, tout en présentant tous les signes extérieurs de la vérité.
Cette distinction est cruciale. Une erreur factuelle est encore vérifiable. Une hallucination invente. C'est une source inventée, un précédent juridique imaginaire, une étude scientifique fantôme. Le modèle ne ment pas. Il ne sait pas qu'il se trompe. Il prédit une séquence de mots statistiquement cohérente. La littérature scientifique confirme cette affirmation. Les architectures probabilistes sous-tendent les grands modèles de langage. Ils prennent des milliards d'exemples textuels et optimisent la probabilité du token suivant. Ils n'ont ni un sens sémantique du monde ni une vue directe de la réalité empirique.
Et c'est ce que les travaux classiques (Bender et al. sur les « perroquets stochastiques », le document de l'Association for Computing Machinery en 2021) clarifient. L'IA ne sait pas. Elle calcule. Elle réagit parce que nous voulons une réponse. Cela crée un biais fondamental. Le biais de satisfaction. Le modèle privilégie de donner une réponse plutôt que de gérer l'incertitude. Ce biais est technique. Il est aussi humain. La réponse est trop bien construite, et l'utilisateur semble bien content.
Les biais ne s'arrêtent pas là. Le rapport distingue deux types principaux. Les biais algorithmiques, issus des données d'entraînement. Et les préjugés sociaux qui reflètent les déséquilibres du monde réel. Le biais de genre est encore l'exemple le plus connu. Les recherches de l'UNESCO et de l'OCDE suggèrent que les modèles associent plus fréquemment les femmes aux services de soins et les hommes aux postes de direction. Ainsi, le document rend ce mécanisme concret.
Le biais culturel s’inscrit dans la même logique. Les grands modèles sont entraînés sur des corpus anglophones, occidentaux, nord-américains. Il dit que certains choix lexicaux, certaines mœurs de politesse ou de moralité proviennent d'une certaine culture. Cette observation est cohérente avec les analyses menées par l'Institut de l'IA centrée sur l'humain de Stanford. Le rapport AI Index 2024 de l'institut cite la grande sous-représentation des langues africaines, asiatiques et locales dans les ensembles de données de référence.
Ces biais deviennent d'autant plus prononcés lorsqu'ils croisent les hallucinations. Le document fournit quelques exemples spécifiques des deux pour illustrer le point. Dans le domaine de la recherche scientifique, un modèle peut inventer des résultats et des références lorsqu'il est privé de données. Ce risque est documenté. En 2023, plusieurs mises en garde contre les IA génératives non contrôlées dans l'écriture scientifique sont apparus dans Nature. Des références inexistantes ont été détectées dans des manuscrits soumis à des revues à comité de lecture.
Le document mentionne un cas réel survenu aux États-Unis. Un avocat a déposé des conclusions de précédents tirés d'un modèle GPT. Ces précédents n'existaient pas. En juin 2023, le tribunal fédéral de New York a confirmé le cas. Le résultat a été des sanctions disciplinaires. En médecine, la menace est encore plus évidente. Le document note des erreurs dans la transcription des notes médicales et des silences perçus comme des omissions d'informations que le modèle a tenté de couvrir. Cette constatation correspond à un travail que nous avons vu du MIT selon lequel les modèles présentent un biais structurel face aux zones de silence informationnel.
Les hallucinations ne sont pas marginales. Elles sont systémiques. Elles augmentent lorsque vous ne donnez pas de contexte au modèle, lorsque votre question n'est pas claire, ou qu'un utilisateur ne sait pas quelle est la réponse et attend une réponse quoi qu'il en coûte. Et c'est ce que le document souligne vraiment. Un prompt sert de structure cognitive. Permettre un rôle, un contexte et une limitation aide à réduire la taille des hallucinations. Cela est soutenu par les recommandations de Google DeepMind et OpenAI dans leurs guides d'utilisation consciencieuse.
Réduire l'accès à Internet peut également aider à réduire le risque, mais ne l'élimine pas de l'image. Les modèles connectés peuvent également ingérer de fausses informations en ligne. Les fausses nouvelles ne disparaissent pas. Elles changent d'échelle. La quantité de contenu généré par l'IA pourrait dépasser celle générée par les humains en masse. Plusieurs études, notamment celle menée par l'OCDE, indiquent que la production de contenus synthétiques progresse plus rapidement que les capacités de vérification.
Le risque est circulaire. Les IA formées sur le contenu créé par les IA. Une perte de diversité informationnelle de manière progressive. Depuis 2023, des chercheurs de l'Université de Stanford ont observé ce phénomène, autrement connu sous le nom d'effondrement du modèle.
Face à ces risques, la modération humaine à grande échelle est une solution pratique mais irréaliste. Le volume est trop important. Les plateformes misent sur l'auto-modération algorithmique. Cela crée une nouvelle opacité. La transparence, alors, devient centrale. Afficher les sources ne suffit pas si ces sources sont elles-mêmes fragiles. La confiance ne peut pas être entièrement déléguée à la machine.
C'est à ce stade que la responsabilité de l'utilisateur doit intervenir. Relire. Vérifier. Recouper. Contester la réponse. Demander au modèle sa certitude. La version croisée des LLM commence à être explorée par les universitaires. Comment intégrer une idée simple. L'IA générative n'est pas une autorité. C'est un outil de production probabiliste.
 Plus l'utilisation dans des domaines à fort impact est grande, plus l'exigence humaine devrait l'être. Les hallucinations crédibles à grande échelle peuvent influencer les opinions, propager des récits sans fondement, saper les processus électoraux. Depuis 2023, il y a eu un certain nombre de rapports de l'Union européenne et de l'ONU avertissant de ce danger. Mais cela ne signifie pas rejeter les intelligences artificielles génératives. Leur pouvoir est réel. Leur utilité est démontrée. Mais leur fiabilité n'est pas automatique. Elle se construit. Elle se contrôle. Elle se vérifie. Une IA qui parle n'est pas une IA qui dit la vérité. Et plus elle se sent sûre d'elle, plus vous devez être sûr de votre esprit critique.
Alioune BA
Spécialiste en Ethique de l’IA
baalioune87@gmail.com

 

Mercredi 4 Février 2026
Dakaractu



Nouveau commentaire :
Twitter



Dans la même rubrique :