Nombreux utilisateurs, lorsqu’ils utilisent les IA conversationnelles comme ChatGPT, Gemini Copilot etc., ont l’impression qu’ils sont en pleine conversation avec un sujet pensant comme un homme. Mais ce phénomène est bien connu en informatique. Et son nom, c’est l’effet Eliza. Ce biais psychologique désigne notre tendance à projeter des traits humains comme la compréhension, l’empathie ou l’intention sur une machine qui ne fait que traiter du texte
Le terme vient de ELIZA, un programme développé en 1966 par un chercheur du MIT pour imiter un psychothérapeute en reformulant les propos de l’utilisateur. Même si le programme était techniquement simple, beaucoup d’utilisateurs avaient l’impression qu’il comprenait vraiment ce qu’ils disaient. Certains se confiaient même à lui comme ils le feraient à une personne.
Aujourd’hui, les systèmes modernes comme ChatGPT ou d’autres assistants IA génératifs produisent des réponses bien plus complexes et convaincantes. Ils exploitent des modèles de langage entraînés sur d’énormes quantités de données, ce qui donne l’impression d’une conversation naturelle. Mais cette fluidité n’implique ni conscience, ni intention, ni expérience vécue. Parce que ces outils prédisent simplement les mots les plus probables pour une entrée donnée. Cette illusion linguistique renforce ainsi l’anthropomorphisme.
La recherche montre que l’interactivité et la perception de «caractères humains» augmentent la confiance des utilisateurs dans les chatbots. Et ceci, même lorsque l’on sait que l’IA n’a aucune compréhension réelle. Cela explique pourquoi certains utilisateurs développent des attachements émotionnels ou attribuent des intentions à des programmes dépourvus d’émotions.
L’Effet Eliza a des implications pratiques dans plusieurs domaines. Dans l’éducation, il peut mener à une confiance trop élevée dans les réponses de l’IA. Il peut également influencer la prise de décisions sans discernement humain, dans le monde du travail et l’administration. Dans la santé mentale ou les interactions sociales, il peut créer une dépendance émotionnelle artificielle.
L’IA générative est certes un outil puissant. Mais elle reste un mécanisme statistique, pas une intelligence au sens humain. Comprendre ce biais nous aide à utiliser ces technologies avec lucidité et esprit critique, en gardant l’humain au centre des décisions, plutôt que de confondre modèle linguistique et interlocuteur doté de compréhension réelle.














































