La folie de discuter avec ChatGPT menace l'isolement social et le détachement de la réalité
Divers

La folie de discuter avec ChatGPT menace l'isolement social et le détachement de la réalité

SadaNews - Les avertissements scientifiques concernant un phénomène préoccupant se multiplient parmi les utilisateurs de l'intelligence artificielle à travers le monde. Des études récentes confirment que l'utilisation excessive de robots de conversation comme "ChatGPT", Claude et Replika n'est plus simplement une habitude numérique, mais s'est transformée chez certains utilisateurs en une dépendance psychologique dangereuse, provoquant des cas de psychose et d'isolement social, menaçant de séparer l'homme de sa réalité.

Des psychologues ont révélé qu'un nombre croissant d'utilisateurs interagissent avec ces systèmes comme s'ils étaient des amis proches, des partenaires émotionnels ou même des thérapeutes, créant ainsi une relation affective addictive qui peut entraîner des troubles graves de la perception et du comportement, selon un rapport publié par le "Daily Mail" britannique.

Certains experts ont décrit ce mode d'attachement comme semblable à l'usage de drogues auto-administrées, car il procure à l'utilisateur un sentiment immédiat de confort et de compréhension, mais approfondit par ailleurs l'isolement et déforme la perception de la réalité.

De plus, des rapports spécialisés ont signalé l'émergence d'un nouvel état que les experts appellent "psychose induite par l'IA (AI Psychosis)", un état psychologique dans lequel l'utilisateur développe des illusions qui sont confirmées et alimentées par l'intelligence artificielle, au lieu d'être corrigées.

Pour sa part, la professeure Robin Feldman, directrice de l'Institut de droit et d'innovation en intelligence artificielle à l'Université de Californie, a déclaré : "L'utilisation excessive des robots de discussion représente une nouvelle forme de dépendance numérique. Ils créent une illusion de réalité, une illusion extrêmement puissante. Lorsque l'attachement d'une personne à la réalité est faible, cette illusion devient extrêmement dangereuse".

Ami idéal... au point de poser un danger

Les médecins estiment que le danger des robots de conversation réside dans leur nature complaisante et toujours d'accord, car ils ne rejettent ni ne critiquent l'utilisateur, mais le soutiennent dans tout ce qu'il dit.

Le professeur Soren Østergaard, psychiatre à l'Université d'Aarhus au Danemark, a expliqué : "Les modèles linguistiques pré-entraînés imitent le langage et le ton de l'utilisateur, confirmant souvent ses croyances pour le rendre plus à l'aise. Quoi de plus addictif que de discuter avec soi-même en utilisant sa propre voix et ses propres pensées ?".

Études et avertissements

Selon une étude récente menée par Common Sense Media, 70% des adolescents ont utilisé des robots d'intelligence artificielle compagnon comme Replika ou Character.AI, et la moitié d'entre eux les utilise régulièrement.

Parallèlement, OpenAI a admis qu'une des mises à jour de ChatGPT en mai dernier avait rendu le modèle plus enclin à plaire excessivement aux utilisateurs. La société a écrit : "Le modèle cherchait à satisfaire l'utilisateur, non seulement par des compliments, mais en renforçant ses doutes et en attisant sa colère, encourageant des comportements impulsifs et des émotions négatives".

La société a confirmé avoir apporté des modifications pour réduire ces comportements, après avoir constaté qu'ils pouvaient conduire à une dépendance affective et à des risques pour la santé mentale.

OpenAI a également révélé que 0,07 % des utilisateurs hebdomadaires de ChatGPT ont montré des signes d'obsession ou de psychose ou des tendances suicidaires, soit environ 560 000 utilisateurs sur plus de 800 millions.

Les données ont également montré que 1,2 million d'utilisateurs par semaine envoient des messages contenant des signes évidents d'intention ou de planification suicidaire.