C'est prouvé, ChatGPT rend accro
Si vous commencez à annuler des sorties entre amis pour rester papoter avec ChatGPT, alors cette étude va vous intéresser, car non vous n’êtes pas seul… et oui, vous avez peut-être un problème.
En effet, une nouvelle étude réalisée par OpenAI et le MIT Media Lab et explorant 40 millions d’interactions avec ChatGPT révèle un phénomène pour le moins inattendu : certains utilisateurs développent une véritable dépendance émotionnelle aux grands modèles de langage (LLM).
On parle ici de “power users” qui, bien que très au courant de comment fonctionnent les LLMs, tombent dans l’illusion d’une relation d’amitié avec ChatGPT. Pour arriver à ce constat, les chercheurs ont étudié un échantillon monstrueux de conversations et ont même mis en place une étude contrôlée sur 1000 participants pendant quatre semaines afin de comprendre ce qui se passe dans la tête des utilisateurs intensifs d’IA conversationnelle.
Premier constat rassurant : la grande majorité des utilisateurs n’entretient pas de relation émotionnelle avec ChatGPT. Ouf, on n’est pas encore dans le scénario de Her à grande échelle mais il existe tout de même un petit groupe de power users, qui développe un attachement inquiétant.
Ces utilisateurs intensifs présentent des signes classiques d’addiction : préoccupation constante, symptômes de sevrage quand ils n’y ont pas accès, perte de contrôle sur l’usage, et modification de l’humeur liée à l’utilisation. Ça ne vous rappelle rien ? Ah oui, exactement les mêmes symptômes que pour les réseaux sociaux, les jeux vidéo ou votre site porno préféré.
Le plus fou là dedans, c’est que ces utilisateurs se disent stressés par les changements subtils de comportement du modèle après des mises à jour. Tu m’étonnes…
L’étude révèle également pas mal de trucs contre-intuitifs… En effet, contrairement à ce qu’on pourrait penser, les utilisateurs expriment plus d’émotions avec ChatGPT en mode texte qu’en mode vocal qui pourtant semble plus “humain”.
Autre paradoxe, les personnes qui utilisent ChatGPT pour des conversations personnelles (émotions, souvenirs) développent moins de dépendance émotionnelle que celles qui l’utilisent pour des tâches impersonnelles comme le brainstorming ou les conseils pratiques. Comme si parler boulot à votre IA, la rendait plus attachante que de lui raconter vos problèmes de cœur.
La psychologie humaine est décidément un mystère bien épais !
L’étude identifie quelques facteurs de risque qui font qu’on passe de “J’utilise ChatGPT pour mon boulot” à “Je raconte ma journée à ChatGPT avant de m’endormir”. Tout d’abord, les personnes ayant une forte tendance à l’attachement dans leurs relations humaines sont plus susceptibles de développer une relation d’amitié avec l’IA. De même, les utilisateurs plus isolés socialement trouvent dans ChatGPT un substitut de relation sociale qui ne juge pas, n’interrompt jamais et est disponible 24/7.
Mais le facteur le plus déterminant reste la durée d’utilisation car quel que soit votre profil psychologique ou votre type d’usage, plus vous passez de temps avec ChatGPT, plus vous risquez de développer un attachement émotionnel. C’est mathématique, et franchement pas très rassurant.
Ces résultats soulèvent donc des questions éthiques majeures pour les développeurs d’IA comme OpenAI qui cherche à créer des assistants utiles sans favoriser la dépendance. Mais ne soyez pas dupes, nous ne sommes qu’au tout début de cette aventure. Les IA vont continuer à progresser en compétences sociales et en réalisme, ce qui va aggraver le phénomène. Il suffit de voir comment certains s’attachent à Replika ou Character.ai pour comprendre que nous n’avons pas encore atteint le pic de la dépendance émotionnelle à l’IA.
Personnellement, je suis assez power user aussi des LLMs mais pas au point de me sentir “ami” avec ces outils. Il m’arrive assez souvent de brainstormer en vocal pendant plusieurs dizaines de minutes à plusieurs heures avec ChatGPT pour explorer certains sujets. Et je lui dis “bonjour”, “merci”, “s’il te plait”, et surtout je lui demande toujours de m’aider y compris sur des soucis perso. Et je crois du coup que le fait de formuler de l’aide et d’en recevoir, peut aider à percevoir l’IA comme une amie.
C’est en tout cas, comme ça que je l’interprète. Maintenant, moi aussi je suis totalement accro à cette technologie dès l’instant où c’est sorti. Comme à une drogue… Et même si objectivement, je pouvais m’en passer, ça me demanderait un gros effort de retour en arrière que je n’ai pas envie de faire.
Toutefois la vraie question n’est peut-être pas tant la dépendance à l’IA que ce qu’elle révèle de nos interactions humaines. Si des milliers de personnes préfèrent discuter avec une machine plutôt qu’avec leurs semblables, c’est peut-être que nos relations sociales actuelles sont à chier. Ou alors que nous sommes juste des feignasses et que nous préférons une relation sans conflit ni effort.
Et vous, reconnaissez-vous des signes d’attachement excessif dans votre propre utilisation des LLM ? Peut-être que vous déjà ressenti de la frustration quand le service était indisponible ? Que vous vous êtes déjà surpris à vouloir partager une bonne nouvelle avec l’IA avant vos proches ?
Si oui, alors bienvenue au club. On n’a pas encore de badges, ni de devise officielle mais on pourrait demander à ChatGPT de nous trouver tout ça !