Immagini pornografiche e di nudo di Taylor Swift generate grazie all’intelligenza artificiale sono circolate sui social media, provocando una forte indignazione tra i suoi fan, e non solo. Le immagini false – cosiddette deepfake – ritraevano la pop star in diverse posizioni sessuali, parzialmente vestita con abiti dei Kansas City Chiefs, in mezzo a orde di fan dei Chiefs (un riferimento alla sua storia d’amore con il giocatore dei Chiefs Travis Kelce).
Secondo il The Daily Dot, le immagini sono state visualizzate almeno 22 milioni di volte prima che X ponesse fine ai post. I fan di Swift si sono mobilitati per segnalare le immagini e hanno anche inondato il social network con post positivi sulla cantante che contenevano parole chiave come “Taylor Swift AI” per cercare di oscurare i deepfake, facendo sì che l’argomento diventasse di tendenza giovedì 25 gennaio mattina.
Le immagini sarebbero state trovate anche su Facebook, Instagram e Reddit, che hanno cercato di arginare la loro diffusione. Un account in particolare è stato citato come causa della diffusione virale delle immagini, anche se non è chiaro se l’utente abbia anche creato le immagini.
“Ho ripetutamente avvertito che l’intelligenza artificiale potrebbe essere usata per generare immagini intime non consensuali”, ha scritto il senatore democratico della Virginia Mark Warner su X. “È una situazione deplorevole e continuerò a fare pressione sulle aziende di intelligenza artificiale affinché fermino questa orribile capacità e sulle piattaforme affinché ne interrompano la circolazione”.
Le immagini hanno fatto il giro proprio mentre un presunto stalker di Swift è stato arrestato tre volte in tre giorni nei pressi della casa della cantante a New York. Finora, il capo di Twitter/X Elon Musk è rimasto in silenzio sulla questione e Swift non ha rilasciato alcun commento.
Le reazioni degli utenti
“Le immagini di Taylor Swift AI sono pazzesche. In realtà è terrificante che esistano. Per favore segnalate e non date più attenzione a questi tweet. Alcuni di questi uomini hanno davvero bisogno di essere chiusi in una gabbia e spediti su Marte”, ha scritto un utente.
“Proteggetela, non fate un uso improprio della tecnologia. Le immagini di intelligenza artificiale di Taylor Swift sono disgustose come l’inferno. Per favore, proteggete Taylor Swift”, scrive invece un altro utente.
“I fan di Taylor Swift sono davvero incredibili. Il suo porno AI diventa virale e loro si mobilitano con oltre 200.000 post per proteggere Taylor, invitando ad agire e facendo sospendere gli account che hanno condiviso il materiale. Riescono a raggiungere risultati che il nostro sistema legale non riesce a raggiungere”, commenta un utente.
Contrasto ai deepfake
In ottobre, il presidente Joe Biden ha emesso un ordine esecutivo per cercare di impedire che “l’intelligenza artificiale generativa produca materiale pedopornografico o immagini intime non consensuali di individui reali”. La pornografia deepfake non consensuale è inoltre illegale in diversi stati.
Oltre alle immagini a sfondo sessuale, i deepfake vengono sempre più spesso utilizzati da aziende che fanno il bello e il cattivo tempo per rappresentare celebrità che sponsorizzano prodotti.
Il problema dei deepfake è particolarmente preoccupante in un anno di elezioni presidenziali controverse. Recentemente è stata utilizzata una robocall che riproduceva la voce di Biden per cercare di influenzare le primarie in New Hampshire.
THR Newsletter
Iscriviti per ricevere via email tutti gli aggiornamenti e le notizie di THR Roma