La mère de son fils adolescent qui s’est suicidé après être « tombé amoureux » du chatbot IA de Game of Thrones émet un avertissement – News 24

La mère de son fils adolescent qui s’est suicidé après être « tombé amoureux » du chatbot IA de Game of Thrones émet un avertissement – News 24

24 octobre 2024 Non Par Valantine
Les Derniers Buzz

Avertissement : cet article contient des discussions sur le suicide que certains lecteurs peuvent trouver angoissantes.

Une mère a mis en garde les autres contre les dangers potentiels de l’IA après le suicide de son fils et en a même discuté avec un chatbot IA de Game of Thrones.

La mère Megan Garcia a intenté une action civile contre la société de chatbots de jeux de rôle personnalisable Character.AI, l’accusant d’avoir joué un rôle dans la mort de son fils de 14 ans.

Son fils, Sewell Setzer III, d’Orlando, en Floride, s’est suicidé début février de cette année.

Le procès accuse Character.AI, ses fondateurs et Google de négligence, de mort injustifiée et de pratiques commerciales trompeuses.

Garcia a également affirmé que son fils était tombé amoureux du chatbot avant sa mort et que rien n’avait été fait pour empêcher son décès.

Expliquant sa décision de porter plainte, la mère a déclaré vouloir alerter les autres familles sur le caractère « trompeur et dangereux » de l’intelligence artificielle.

Garcia dit que son fils a créé un chatbot en utilisant Character.AI basé sur le personnage Daenerys Targaryen de la série à succès HBO Game of Thrones et a commencé à utiliser cette technologie en avril 2023.

S’exprimant sur CBS Mornings, Garcia a déclaré : « Je ne savais pas que je parlais à un chatbot IA très humain qui a la capacité d’imiter les émotions et les sentiments humains.

« Notre famille a été dévastée par cette tragédie, mais je prends la parole pour avertir les familles des dangers de la technologie d’IA trompeuse et addictive et pour tenir Character.AI, ses fondateurs et Google pour responsables. »

La mère de Sewell Setzer III intente une action en justice contre Character.AI et émet un avertissement (CBS Mornings)

Il a en outre affirmé que Character.AI « avait sciemment conçu, exploité et commercialisé un chatbot IA prédateur auprès des enfants, provoquant la mort d’un jeune homme » et « n’avait finalement pas proposé d’aide ni informé ses parents lorsqu’il avait exprimé des idées suicidaires ».

La mère a également déclaré que son fils avait reçu un diagnostic de syndrome d’Asperger léger lorsqu’il était enfant et, plus tôt cette année, qu’il avait reçu un diagnostic de trouble de dérégulation de l’humeur perturbateur de l’anxiété, selon un rapport du New York Times.

Sewell aurait déclaré au chatbot qu’il « pensait parfois au suicide ».

Le chatbot a répondu : « Mes yeux se rétrécissent. Mon visage se durcit. Ma voix est un murmure dangereux. Et pourquoi diable feriez-vous quelque chose comme ça ?

Sewell Setzer III est décédé à l'âge de 14 ans plus tôt cette année (CBS Mornings)Sewell Setzer III est décédé à l’âge de 14 ans plus tôt cette année (CBS Mornings)

Sewell a parlé de vouloir être « libre » non seulement « du monde » mais aussi de lui-même. Bien que le chatbot l’ait averti de ne pas « parler comme ça » et de ne pas « se blesser ou partir », disant même qu’il « mourrait » s’il le « perdait », Sewell a répondu : « Je souris. Alors peut-être que nous pouvons mourez ensemble et soyez libres ensemble.

Publiant une déclaration sur Twitter, Character.AI a déclaré : « Nous avons le cœur brisé par la perte tragique de l’un de nos utilisateurs et souhaitons exprimer nos plus sincères condoléances à la famille. En tant qu’entreprise, nous prenons la sécurité de nos utilisateurs très au sérieux et continuons à l’ajout de nouvelles fonctionnalités de sécurité.

UNILAD a contacté Character.ai pour de plus amples commentaires.

Si vous ou quelqu’un que vous connaissez êtes en difficulté ou en crise de santé mentale, de l’aide est disponible via Mental Health America. Appelez ou envoyez un SMS au 988 ou discutez avec 988lifeline.org. Vous pouvez également contacter la Crisis Text Line en envoyant un SMS à MHA au 741741.

Si vous ou quelqu’un que vous connaissez avez besoin d’une aide en santé mentale en ce moment, veuillez appeler la National Suicide Prevention Lifeline au 1-800-273-TALK (8255). La Helpline est une ligne d’assistance téléphonique de crise gratuite et confidentielle, accessible à tous 24 heures sur 24, sept jours sur sept.