IA vs humain : deux façons de se tromper

On reproche aux IA génératives d’halluciner parce qu’elles peuvent produire des informations fausses avec beaucoup d’assurance. Elles inventent une date, une source, un fait, sans signaler explicitement l’incertitude. C’est réel, et c’est un vrai problème quand on attend une information exacte ou vérifiable.

Mais réduire l’hallucination à un défaut propre aux IA est trompeur.

L’humain hallucine aussi. Simplement, il le fait autrement.

Chez l’humain, l’hallucination prend des formes très banales et socialement acceptées. Faux souvenirs, biais de confirmation, reconstruction a posteriori des faits, interprétation erronée d’une information partielle, certitudes fondées sur des impressions plutôt que sur des preuves. En psychologie cognitive, on sait depuis longtemps que la mémoire humaine est reconstructive, pas photographique. On ne se souvient pas des faits, on les reconstruit. Et souvent, on les reconstruit mal.

La différence clé, ce n’est donc pas l’existence de l’hallucination, mais sa nature.

L’IA hallucine parce qu’elle cherche à produire une réponse cohérente même quand l’information lui manque. Elle optimise le langage, pas la vérité. L’humain, lui, hallucine parce qu’il cherche du sens, de la cohérence narrative, de la sécurité cognitive ou émotionnelle. Il comble les trous sans s’en rendre compte.

Autre différence importante. L’humain est très mauvais pour reconnaître ses propres hallucinations. Il les appelle intuition, bon sens, expérience, conviction. L’IA, elle, peut être encadrée, vérifiée, auditée, confrontée à des sources. Ses hallucinations sont traçables. Celles de l’humain beaucoup moins.

En réalité, le vrai risque n’est pas que l’IA hallucine. Le vrai risque, c’est que l’humain prenne pour vrai ce qui est dit avec aplomb, qu’il vienne d’une IA, d’un expert, d’un média ou de lui même.

Bien utilisée, une IA ne remplace pas le jugement humain. Elle agit comme un miroir grossissant de nos propres biais. Elle oblige à vérifier, à douter, à croiser les sources. Mal utilisée, elle devient un amplificateur de croyances déjà fragiles.

L’hallucination n’est pas un bug exclusivement technologique. C’est une caractéristique du raisonnement lorsqu’il manque de données, de méthode ou d’esprit critique. Les IA ne font pas mieux que nous sur ce point. Elles nous ressemblent. Et c’est précisément pour cela qu’elles nous dérangent autant.

Quitter la version mobile