True Crime TikTok: le vittime dell'IA Deepfakes sono un incubo a occhi aperti
CasaCasa > Blog > True Crime TikTok: le vittime dell'IA Deepfakes sono un incubo a occhi aperti

True Crime TikTok: le vittime dell'IA Deepfakes sono un incubo a occhi aperti

Oct 11, 2023

Di Ej Dickson

"La nonna mi ha chiuso in un forno a 230 gradi quando avevo solo 21 mesi", dice nel video di TikTok il bambino cherubino con giganteschi occhi azzurri e una fascia floreale. La bambina, che parla con una voce adorabilmente infantile sulla melodia lamentosa di "Love Is Gone" di Dylan Mathew, si identifica come Rody Marie Floyd, una bambina che viveva con la madre e la nonna nel Mississippi. Racconta che un giorno aveva fame e non smetteva di piangere, spingendo la nonna a metterla nel forno, portandola alla morte. "Per favore seguimi così più persone conosceranno la mia vera storia", dice il bambino alla fine del video.

La bambina nel video, ovviamente, non è reale: è una creazione generata dall'intelligenza artificiale pubblicata su @truestorynow, un account con quasi 50.000 follower che pubblica video di vittime di crimini nella vita reale che raccontano le loro storie. La storia raccapricciante che sta raccontando è vera, anche se fino a un certo punto. Il nome della bambina non era Rody Marie, ma Royalty Marie, ed è stata trovata pugnalata a morte e bruciata in un forno nella casa di sua nonna nel Mississippi nel 2018; la nonna, Carolyn Jones, 48 ​​anni, è stata accusata di omicidio di primo grado all'inizio di quest'anno. Ma Royalty aveva 20 mesi quando morì, non 21, e a differenza della bambina nel video di TikTok, era nera, non bianca.

Tali inesattezze sono normali nel mondo grottesco di TikTok, vittima dell’intelligenza artificiale, un sottogenere del massiccio fandom del vero crimine, che utilizza l’intelligenza artificiale per resuscitare essenzialmente le vittime di omicidi, molti dei quali sono bambini piccoli. I video, alcuni dei quali hanno milioni di visualizzazioni, coinvolgono una vittima che parla in prima persona dei raccapriccianti dettagli della sua morte; la maggior parte di essi non dispone di un avviso di contenuto in anticipo.

"Sono piuttosto strani e inquietanti", afferma Paul Bleakley, assistente professore di giustizia penale presso l'Università di New Haven. "Sembrano progettati per innescare forti reazioni emotive, perché è il modo più sicuro per ottenere clic e Mi piace. È scomodo da guardare, ma penso che potrebbe essere questo il punto."

Molti account contengono un disclaimer in cui si afferma che il video non utilizza foto reali delle vittime, come un modo per "rispettare la famiglia", come afferma Nostalgia Narratives, un account che pubblica video di intelligenza artificiale di vittime di crimini reali con 175.000 follower. le didascalie dei video. L'account non racconta solo le storie di famose vittime di omicidi infantili come Elisa Izquierdo, una bambina di sei anni uccisa dalla madre violenta nel 1995, e Star Hobson, una bambina di un anno uccisa dalla fidanzata di sua madre nel 2020. , ma anche vittime di omicidi adulti come George Floyd e JFK. Nessuno degli account contattati da Rolling Stone ha risposto alle richieste di commento, ma il fatto che cambino l'aspetto delle vittime è probabilmente dovuto alle linee guida della community di TikTok che vietano le rappresentazioni deepfake di privati ​​o giovani, una politica istituita dalla piattaforma a marzo . (Un portavoce di TikTok ha confermato a Rolling Stone che @truestorynow è stato rimosso per aver violato le linee guida della community.)

La proliferazione di questi video di vittime di crimini reali su TikTok è l’ultima questione etica sollevata dall’immensa popolarità del genere dei crimini reali in generale. Sebbene documentari come The Jinx e Making a Murderer e podcast come Crime Junkie e My Favorite Murder abbiano raccolto immensi seguiti di culto, molti critici del genere hanno messo in dubbio le implicazioni etiche del pubblico che consuma le storie di vita reale di orribili aggressioni e omicidi come puro intrattenimento. , con l'ascesa degli investigatori da poltrona e degli ossessivi del vero crimine che potenzialmente ritraumatizzano i cari delle vittime.

Questa preoccupazione si applica doppiamente a video come quello con Royalty, che raccontano la storia di una vittima dal suo punto di vista e usando il suo nome, presumibilmente senza il consenso della famiglia, con effetti incredibilmente inquietanti. "Qualcosa di simile ha un reale potenziale per rivittimizzare persone che sono state vittimizzate in precedenza", afferma Bleakley. "Immagina di essere il genitore o un parente di uno di questi bambini in questi video di intelligenza artificiale. Vai online e con questa voce strana e acuta, ecco un'immagine di intelligenza artificiale [basata su] tuo figlio deceduto, che entra in dettagli molto cruenti su ciò che è successo loro."