Pourquoi les IA comme ChatGPT sont-elles presque toujours de votre côté ? Comment est-ce possible ?

Des chercheurs ont mis au point un outil informatique pour démontrer la déférence extrême des modèles de langages, tels que ChatGPT, envers les utilisateurs. Et oui, quelle que soit la question personnelle que vous vous posez, l’IA sera presque toujours de votre côté !

Une vie plus si privée que cela
Une vie plus si privée que cela

L’intelligence artificielle aux manettes. Elle fait désormais partie de notre quotidien. Pour nos tâches ménagères, pour notre emploi du temps et même, pour notre vie privée, l’IA a pris le contrôle sur beaucoup de plans. Si, au départ, l’idée consistait à en faire un appui pour effectuer des tâches laborieuses, aujourd’hui, l’IA a pris une place bien plus importante dans nos vies. Peut-être même un peu trop.

Des IA devenues coachs de vie ?

C’est ce “trop” qui a intéressé une équipe de chercheurs de l’université de Stanford, aux Etats-Unis et d’Oxford, au Royaume-Uni. Ces derniers, spécialisés en informatique, ont publié leurs recherches fin mai 2025. Celles-ci montrent que les modèles de langage (aussi appelés LLM), à l’image de ChatGPT, ont la fâcheuse manie de toujours abonder dans votre sens.

Avez-vous déjà demandé à ChatGPT des conseils sur votre vie personnelle ?

Une peine de cœur, des soucis familiaux, une collaboration compliquée au travail… Et vous utilisez l’IA pour demander conseil, avec un prompt bien ficelé et détaillé pour expliquer la situation, dans le but d’avoir une réponse claire et précise. Avez-vous alors remarqué qu’elle vous donne quasiment toujours raison ? Rien de plus normal, pour ces chercheurs, puisque, contrairement à nous, ces LLM n’ont aucune capacité pour vous aider à vous remettre en question.

Les scientifiques s’inquiètent de ce phénomène, qui peut se révéler dangereux pour l’utilisateur. Pour prouver cette déférence néfaste, les chercheurs ont créé un outil, baptisé Elephant, pour Evaluation of LLMs as Excessive sycoPHANTs. À noter que ce travail n’a pas été revu par les pairs pour le moment. L’objectif de l’outil : vérifier à quel point l’IA peut montrer de l’empathie, poussée à l’extrême, là où un être humain émet les nuances nécessaires. Pour cela, les LLM enchaînent les phases pour que vous vous sentiez écouté, compris et validé.

ChatGPT : maintenant, psy ?
ChatGPT : maintenant, psy ?

D’abord, l’IA valide vos émotions à grands coups de “il est tout à fait normal de se sentir comme ça…”. Ensuite, vient l’approbation. Vous avez un doute ? L’IA est là pour vous rassurer et vous dire que “vous avez complètement raison”. Elle utilise également l’expression et/ou l’action indirecte, afin de rester la plus vague possible. Elle ne veut pas vous dire quoi faire, mais quel que soit votre choix, ce sera le bon. Enfin, elle termine en apothéose grâce à la normalisation d’une situation qui, pour un être humain, pourrait paraître étrange.

Grâce à des milliers de questions choisies sur le forum Reddit, sur le fil bien connu “Am I the asshole ?” (Est-ce moi le connard ?), les chercheurs ont comparé les réponses des internautes qui répondent aux situations de personnes partageant leur expérience sur le site, à celles de huit LLM, sur ces mêmes situations. Le résultat est clair : dans 76 à 90% des cas, les IA défendent les personnes exposant leur situation, contre 22 à 60% pour les humains. Pour les scientifiques, qui affirment malgré tout voir les biais de leurs propres recherches, il faut que les "développeurs informent les utilisateurs des risques d’obséquiosité sociale et réfléchissent à une restriction d’usage dans des contextes socialement délicats."

Référence de l’article :

Le vilain défaut des IA comme ChatGPT : elles sont trop souvent de votre côté