Il nome di Taylor Swift non dà più come risultato un blank space su X/Twitter. Le ricerche del nome della cantante erano state disabilitate nel fine settimana, in seguito all’eccesso di falsi nudi pornografici generati dall’IA e pubblicati sulla piattaforma social. X, che aveva deciso di cancellare tutti i risultati per “Taylor Swift nuda” o “Taylor Swift IA” ha ora ripristinato la possibilità di cercare il suo nome.
“La ricerca è stata ripristinata e continueremo a vigilare su qualsiasi tentativo di diffusione di questi contenuti e li rimuoveremo se li troveremo”, si legge in una dichiarazione di X ottenuta da The Hollywood Reporter.
Il ripristino delle ricerche del nome di Swift arriva dopo che la Casa Bianca è intervenuta sulla controversia e ha esortato il Congresso a “intraprendere un’azione legislativa”, come ha dichiarato venerdì 26 gennaio a ABC News la responsabile dei rapporti con la stampa Karine Jean-Pierre. “Siamo allarmati dalle notizie sulla circolazione delle immagini che avete appena descritto, di immagini false, per essere più precisi, ed è allarmante. Anche se le aziende di social media prendono le loro decisioni indipendenti sulla gestione dei contenuti, crediamo che abbiano un ruolo importante da svolgere nel far rispettare le loro regole per prevenire la diffusione di disinformazione e di immagini intime non consensuali di persone reali”.
Molte delle immagini false ritraevano Swift in posizioni sessuali, parzialmente coperta da abiti con i colori dei Kansas City Chiefs in mezzo a un gruppo di tifosi della squadra di football, in riferimento alla sua relazione con il giocatore dei Chiefs Travis Kelce.
La mobilitazione contro i falsi pornografici dell’IA
The Daily Dot ha riferito che le immagini sono state viste almeno 22 milioni di volte prima che X desse un giro di vite ai post e cercasse di rimuoverli. I fan della cantautrice si sono mobilitati per segnalare le immagini e inondare la piattaforma social di post positivi su di lei con parole chiave come “Taylor Swift IA”.
Oltre alla Casa Bianca, anche il deputato di New York Joe Morelle e il senatore della Virginia Mark Warner si sono espressi sulla situazione. Morelle ha usato la questione dei nudi generati dall’IA per promuovere una legge che renderebbe la condivisione non consensuale di immagini esplicite alterate digitalmente un reato federale. Warner ha sottolineato che si tratta di “una situazione deplorevole” e ha dichiarato che continuerà a sollecitare le aziende di IA a porre fine alla circolazione di immagini false.
Venerdì 26 gennaio, la SAG-AFTRA ha rilasciato una dichiarazione sulle suddette immagini, osservando che “sono sconvolgenti, dannose e profondamente preoccupanti”. Il sindacato ha continuato: “Lo sviluppo e la diffusione di immagini false – specialmente quelle di natura oscena – senza il consenso di qualcuno deve essere reso illegale. Come società, abbiamo il potere di controllare queste tecnologie, ma dobbiamo agire ora prima che sia troppo tardi. La SAG-AFTRA continua a sostenere la proposta di legge del deputato Joe Morelle, il Preventing Deepfakes of Intimate Images Act, per assicurarsi che questo tipo di sfruttamento non si ripeta. Sosteniamo Taylor e le donne di tutto il mondo che sono vittime di questo tipo di furto della loro privacy e del loro diritto all’autonomia”.
Le prime immagini di Swift sono diventate virali mercoledì 24 gennaio, ma man mano che ne sono apparse altre su X e su altre piattaforme social, è diventato più difficile imporne la rimozione. Swift e il suo staff non si sono espressi pubblicamente sulla questione, ma secondo alcune voci la cantante starebbe valutando la possibilità di intraprendere un’azione legale.
Traduzione di Nadia Cazzaniga
THR Newsletter
Iscriviti per ricevere via email tutti gli aggiornamenti e le notizie di THR Roma