«Open AI» blâme l'utilisation abusive de «Chat GPT» pour le suicide d'un adolescent
Divers

«Open AI» blâme l'utilisation abusive de «Chat GPT» pour le suicide d'un adolescent

SadaNews - La société «Open AI», créatrice de l'application «Chat GPT», a déclaré que le suicide d'un adolescent de 16 ans après de longues conversations avec le robot était dû à «un usage abusif de sa technologie, et non au robot de conversation en lui-même».

Selon le journal britannique «The Guardian», ces commentaires de «Open AI» faisaient suite à une action en justice intentée par la famille de l'adolescent Adam Rhein de Californie contre la société basée à San Francisco et son PDG Sam Altman.

Rhein s'est suicidé en avril après de longues discussions et «des mois d'encouragement de la part de «Chat GPT», selon l'avocat de la famille.

La plainte allègue que l'adolescent a discuté de méthodes de suicide avec «Chat GPT» à plusieurs reprises, et que le robot l'a guidé sur l'efficacité de la méthode proposée, lui a offert de l'aide pour rédiger une lettre de suicide à ses parents, et que la version de la technologie qu'il a utilisée «a été mise sur le marché dans l'urgence... malgré des problèmes évidents de sécurité».

Selon les documents soumis à la Cour suprême de Californie mardi, la société «Open AI» a déclaré que les blessures et les dommages subis par Rhein étaient directement et étroitement dus à son usage abusif, à son utilisation non autorisée, ou inattendue, ou inappropriée de l'application «Chat GPT».

La société a indiqué que ses conditions d'utilisation interdisent de demander des conseils au robot de conversation concernant les auto-mutilations, et a souligné une clause de limitation de responsabilité stipulant que «les résultats ne doivent pas être considérés comme une source unique de vérité ou d'informations factuelles».

La société «Open AI», évaluée à 500 milliards de dollars, a affirmé que son objectif était de «traiter les questions de santé mentale devant les tribunaux avec soin, transparence et respect», et qu'«indépendamment de toute action en justice, nous continuerons à nous concentrer sur l'amélioration de nos technologies en accord avec notre mission».

Elle a ajouté : «Nous présentons nos plus sincères condoléances à la famille Rhein pour leur grande perte».

L'avocat de la famille, Jay Edelson, a qualifié la réponse de «Open AI» de «préoccupante», affirmant que la société «essaie de rejeter la responsabilité sur les autres, y compris, malheureusement, en prétendant qu'Adam lui-même a violé les conditions et modalités de l'entreprise en interagissant avec (Chat GPT) de la manière dont elle a été programmée».

Plus tôt ce mois-ci, sept autres actions en justice ont été déposées contre «Open AI» dans les tribunaux californiens concernant «Chat GPT», y compris une allégation selon laquelle le robot agissait comme un «entraîneur au suicide».

Un porte-parole de la société a alors déclaré : «C'est extrêmement triste, et nous examinons les dossiers pour comprendre les détails. Nous formons (Chat GPT) à reconnaître les signes de détresse psychologique ou émotionnelle et à y répondre, à apaiser les utilisateurs et à les diriger vers le soutien réel dont ils ont besoin».

En août, «Open AI» avait déclaré qu'elle renforçait les mesures de protection dans «Chat GPT» lorsque les personnes s'engagent dans des conversations longues, car l'expérience a montré que certains aspects de la formation à la sécurité du modèle pouvaient se détériorer dans ces cas.

Elle a ajouté : «Par exemple, le robot pourrait correctement orienter vers une ligne d'assistance pour la prévention du suicide lorsque quelqu'un lui révèle son intention de se suicider, mais après plusieurs messages sur une longue période, il pourrait finalement fournir une réponse qui contredit nos mesures de protection. C'est exactement le type d'effondrement que nous travaillons à prévenir».