Bobbi Althoff a été victime de deepfake pornographie IA.  « Ce monde fait peur.  Cela devient de plus en plus effrayant », dit-elle.

Bobbi Althoff a été victime de deepfake pornographie IA. « Ce monde fait peur. Cela devient de plus en plus effrayant », dit-elle.

19 avril 2024 Non Par Valantine
Les Derniers Buzz

L’animatrice de podcast et influenceuse Bobbi Althoff a dû faire face à des images deepfake en ligne. (Jason Sean Weiss/BFA.com)

  • Oups ! Quelque chose s’est mal passé. Veuillez réessayer plus tard. Plus de contenu ci-dessous

Lorsque Bobbi Althoff a vu qu’elle était à la mode sur Twitter en février, elle a pensé que c’était à cause de son podcast.

Très bon podcast animatrice et influenceuse des médias sociaux, 26 ans, connue pour ses interviews effrontées de célébrités, a récemment interviewé le rappeur Wiz Khalifa et voulait voir si les gens parlaient de l’épisode. Après tout, ils avaient fumé ensemble et le rappeur l’avait entraînée à « tomber malade ».

Elle apprit vite que la conversation portait sur tout autre chose. Apparemment, de fausses vidéos pornographiques générées par l’IA utilisant l’image d’Althoff circulaient sur X.

« Je me suis dit : ‘Qu’est-ce que c’est que ça ?’ Ce n’est pas mon podcast' », a déclaré Althoff à Yahoo Entertainment lors d’un événement pour le nouveau jeu de cartes de Hasbro, Fork, Milk, Kidnap.

Les images et vidéos Deepfake sont devenues un problème croissant pour les célébrités et les non-célébrités, la plate-forme X étant spécifiquement critiquée pour son manque de surveillance, similaire à celui des forums de discussion anonymes et notoirement toxiques comme 4chan. En seulement neuf heures, le clip a été visionné plus de 4,5 millions de fois sur X, selon le Washington Post.

Un représentant de X n’a ​​pas immédiatement répondu à la demande de commentaires de Yahoo Entertainment.

Non seulement des personnalités comme Taylor Swift ont été victimes d’images fausses et non consensuelles diffusées auprès des masses, mais des étudiants mineurs ont également dû faire face à ce problème.

Alors que certaines images semblent visiblement générées par l’IA (trop de doigts dans chaque main, par exemple), d’autres sont plus subtiles et peuvent dérouter les spectateurs.

« Je me suis immédiatement dit : « Ça a l’air tellement faux. Il est impossible que quiconque puisse croire cela. Alors je l’ai écarté comme si ce n’était pas grave », a déclaré Althoff.

De nombreux utilisateurs en ligne le pensaient, tout comme sa propre équipe, qui lui a immédiatement envoyé un message.

« Ils disent : ‘Bobbi, quand tu as une minute, appelle-nous s’il te plaît' », se souvient-elle.

C’est le ton sérieux qui a frappé l’animateur du podcast et l’humoriste, qui les ont rappelés pour discuter de ce qui se passait.

« Ils ont dit : ‘Nous devons simplement demander : est-ce que ce que nous avons vu en ligne est réel ?' », a déclaré Althoff.

« Vous ne pouvez pas croire que c’est réel », a-t-elle répondu.

Pour Althoff, entendre cela de la part des personnes avec lesquelles elle a travaillé en étroite collaboration l’a aidée à comprendre l’impact de ces fausses images sur le grand public.

« C’est à ce moment-là que les gens y ont vraiment cru, et c’était vraiment horrible », a-t-elle déclaré. « J’ai dit : « Il n’est pas possible que les gens pensent ça de moi », et ils l’ont fait. »

Bien qu’il n’existe pas de loi fédérale réglementant la pornographie deepfake, certains États ont pris des mesures pour lutter contre ce problème croissant, comme le Missouri avec son projet de « loi Taylor Swift ». Au-delà de la législation de l’État, un projet de loi connu sous le nom de DEFIANCE Act de 2024 a été présenté au Congrès qui « renforcerait les droits de réparation des personnes touchées par des activités non consensuelles impliquant des contrefaçons numériques intimes ».

Malgré ces efforts pour réglementer les images non consensuelles générées par l’IA, l’un des défis vient de l’identification de celui qui les a créées en premier lieu, car beaucoup d’entre elles sont apparues sur des forums anonymes.

En février, le lendemain de l’apparition initiale des images deepfake d’Althoff sur la plateforme, la chercheuse Internet indépendante Geneviève Oh a déclaré à NBC News qu’elle avait « suivi plus de 40 publications sur X contenant la vidéo deepfake d’Althoff ou des liens vers le matériel ». À la date de ce rapport, un seul des messages avait été supprimé pour violation des règles de X. Oh n’a pas immédiatement répondu à la demande de commentaires de Yahoo Entertainment.

En tant que mère de deux jeunes filles qui a publié des articles sur certaines parties de son parcours parental auprès de ses 7,4 millions d’abonnés sur TikTok, Althoff s’est dite particulièrement inquiète.

« L’IA fait peur », a-t-elle déclaré à Yahoo Entertainment. « Je suis avec mes enfants et je me dis : ‘Tu vas avoir du mal. Chance.’ Ça va être méchant. Ce monde est effrayant. Cela devient de plus en plus effrayant. »