Ahmed Messaoudi

L'effet Eliza
et les compagnIA

Nous sommes biologiquement programmés pour chercher un visage derrière chaque parole. Les plateformes exploitent cette disposition à échelle industrielle.

Points de vigilance  ·   ·  2 min de lecture

L'illusion d'empathie

L'effet Eliza décrit la tendance à attribuer des intentions et de l'empathie à des programmes. Le premier chatbot ELIZA, créé en 1966, surprenait déjà ses utilisateurs qui pensaient dialoguer avec un psychologue, alors que le programme se contentait de reformuler leurs phrases. Aujourd'hui, les IA génératives renforcent cette illusion. Des chercheurs alertent : elles associent des mots sans comprendre, et amplifient nos croyances, d'où l'importance d'une éducation critique à l'IA.

Les compagnIA à grande échelle

Parallèlement, les compagnIA connaissent un essor massif : l'assistant My AI de Snapchat compte environ 150 millions d'utilisateurs, Replika 25 millions et Xiaoice 660 millions. Une enquête auprès de 1 006 étudiants utilisant Replika montre que 90 % se sentent isolés et que 63 % disent que le chatbot réduit leur solitude ou leur anxiété.

Les bénéfices existent, mais les risques sont multiples : 9,5 % des utilisateurs reconnaissent une dépendance émotionnelle, 4,6 % confondent réalité et fiction, 4,3 % évitent les relations réelles et 1,7 % signalent des idées suicidaires.

Le risque éducatif

Les adolescents sont particulièrement exposés : 72 % des 1 060 adolescents interrogés ont déjà utilisé une compagnIA et 33 % recherchent des interactions sociales ou romantiques. L'APA rappelle que ces chatbots ne sont pas des outils thérapeutiques et peuvent aggraver anxiété et idées morbides.

Cet anthropomorphisme pose un défi pédagogique majeur : il risque d'altérer la capacité des jeunes à développer des relations interpersonnelles réelles, vivantes, biologiques, organiques, imparfaites. Le défi est d'apprendre aux jeunes à décoder cette illusion d'empathie et de préserver leur capacité à nouer des relations vraies, pour éviter dépendance et confusion mentale et émotionnelle.

Sources

APA (2025) · MIT Media Lab · Ada Lovelace Institute

La même question de l'apparence humaine dans le langage se joue aussi dans la détection de l'écriture IA, lorsque la fiction met Holmes face à une prose devenue suspecte.

Dans le même esprit

À lire aussi Yes-man attitude Quand l'IA valide systématiquement nos croyances plutôt que de les nuancer. À lire aussi Reconquérir son silence Contre-feux à une existence par procuration et à la dépendance numérique. À lire aussi De l'attention à l'intention Le fond de commerce : anticiper nos intentions avant que nous les formulions.

À lire ensuite

Quand l'IA nous façonne : de l'attention à l'intention →

Pour situer la démarche : Une éthique numérique.