Consenso, credito e compenso. Queste sono le condizioni che il direttore esecutivo nazionale del sindacato degli attori (SAG-AFTRA) Duncan Crabtree-Ireland e il membro del comitato di negoziazione del sindacato degli sceneggiatori (Writers Guild of America West) John August hanno sollecitato. Devono infatti essere rispettate queste tre regole perché il lavoro, le immagini e i marchi dei membri della corporazione possano essere utilizzati per allenare sistemi di intelligenza artificiale.
Nel corso di un’udienza tenutasi mercoledì 4 ottobre davanti alla Federal Trade Commission (FTC), i sindacalisti si sono uniti ad altri rappresentanti di vari gruppi di autori, doppiatori e musicisti per mettere in guardia dall’invasione dell’IA generativa nell’industria dei media e dell’intrattenimento. Un trend che, a loro dire, compromette il loro lavoro e presenta maggiori rischi di frode.
L’ascesa di questa nuova tecnologia ha scatenato diverse preoccupazioni tra i creativi, che hanno esortato i politici a istituire dei limiti al suo utilizzo. In assenza di una regolamentazione, la WGA ha raggiunto un accordo con gli Studios e le piattaforme che prevede una certa protezione per i membri del sindacato sui credits e utilizzo. Anche la SAG-AFTRA ha spinto per ottenere condizioni simili nelle sue trattative.
L’udienza
Duncan Crabtree-Ireland, che ha lasciato l’udienza in anticipo per tornare a negoziare con gli Studios, ha sostenuto che i contenuti generati dagli attori, come le loro sembianze, voci e performance, “riflettono un lavoro reale e sostanziale in termini di proprietà intellettuale” che merita quindi una protezione legale. Ha sottolineato inoltre l’esistenza di un “doppio standard” nell’uso potenziale dell’intelligenza artificiale da parte degli Studios e di altre aziende che intendono utilizzare questa tecnologia.
“Se un individuo decidesse di violare i contenuti protetti da copyright di una di queste aziende e li distribuisse senza pagare per i diritti di licenza”, ha detto Crabtree-Ireland, “quell’individuo si troverebbe ad affrontare molte conseguenze finanziarie e legali”. E ha aggiunto: “Allora perché non è vero il contrario? Gli individui la cui proprietà intellettuale è stata utilizzata per formare l’algoritmo di intelligenza artificiale non dovrebbero essere almeno ugualmente protetti?”.
Il diritto d’autore non riguarda i volti degli attori o le voci dei cantanti, ma in alcuni Stati – come la California, New York e la Florida – esistono leggi che proteggono dagli usi commerciali non autorizzati del nome, dell’immagine e della personalità di una determinata figura. Lo scopo è quello di garantire alle singole persone il diritto esclusivo di trarre profitto dalla propria identità. Gli editori musicali stanno attualmente spingendo per una legge federale sul diritto di pubblicità per combattere anche l’imitazione della voce nei brani generati attraverso sistemi di IA. Una misura che probabilmente aiuterebbe anche gli attori e altri artisti.
Protezione dalle IA
Nell’accordo provvisorio con l’associazione di categoria degli Studios (l’Alliance of Motion Picture and Television Producers, AMPTP), gli autori hanno garantito che l’uso di strumenti di IA generativa non influirà sui loro crediti o compensi, e dovrà essere reso noto dalle compagnie. Il sindacalista John August, riferendosi a queste clausole dell’accordo, ha paragonato gli sceneggiatori e gli altri artisti a piccole imprese, “ognuna delle quali è in competizione sul mercato per vendere il proprio lavoro”. Per avere successo, spiega il rappresentante WGA, gli scrittori sviluppano stili e marchi unici, che vengono essenzialmente rubati dalle aziende di IA che saccheggiano indiscriminatamente internet alla ricerca di materiale per allenare i loro sistemi di intelligenza artificiale.
“Questo è un furto, non un uso corretto”, ha affermato August, riferendosi al concetto legale secondo cui le opere protette da copyright possono essere utilizzate per realizzare nuove creazioni, purché siano trasformative. “Il nostro lavoro, protetto dal diritto d’autore e dai nostri diritti contrattuali, viene utilizzato senza alcuna autorizzazione, senza alcuna attribuzione o compenso”.
Per gli scrittori e gli autori, il problema non riguarda solo la copia delle loro sceneggiature o dei loro libri, che vengono poi inseriti nei cosiddetti Large Language Model che alimentano le intelligenze artificiali in grado di imitare l’uomo e di produrre bozze e testi in pochi secondi. Si tratta anche di aziende che traggono profitto dal loro lavoro, creando materiale illecito, il che, secondo la FTC, potrebbe configurare un metodo di concorrenza sleale. August ha dichiarato inoltre che i cattivi attori nel mercato “utilizzano beni rubati per abbassare i prezzi di un venditore”, come nel caso delle imitazioni generate dall’IA di romanzi popolari venduti su Amazon.
Questo resta un punto di scontro per gli scrittori, ha proseguito, perché l’accordo WGA copre solo il loro lavoro per gli Studios, mentre “la maggior parte del vero lavoro sull’IA viene svolto da aziende come Google, Facebook e OpenAI”, che non hanno alcun rapporto contrattuale con il sindacato. August ha sottolineato che “la politica pubblica avrà un ruolo cruciale nel proteggere i nostri membri”.
L’intervento della Authors Guild
Nel corso dell’udienza, molte delle preoccupazioni sollevate dal sindacato degli autori sono state riprese Umair Kazi, direttore politico della Authors Guild. Quest’ultimo, nel suo intervento, si è concentrato sull’uso delle opere dei propri membri come dati di formazione per le aziende di IA, che stanno alimentando la produzione di opere derivate concorrenti.
“È intrinsecamente ingiusto utilizzare opere protette da copyright per creare tecnologie altamente redditizie, che sono anche in grado di produrre opere derivate concorrenti senza consenso, compenso o credito da parte dei creatori”, ha affermato Kazi. “C’è un serio rischio di diluizione del mercato a causa di libri e altre opere generate dalle tecnologie che possono essere prodotte in massa a basso costo, e che inevitabilmente abbasseranno il valore economico e artistico delle opere create dall’uomo”.
Ad esempio, l’intelligenza artificiale generativa viene già utilizzata per impersonare autori popolari e creare ebook di bassa qualità. Kazi ha spiegato: “All’inizio di quest’anno, i libri generati dall’IA hanno iniziato a dominare la classifica dei best seller di Amazon nella categoria dei romanzi per giovani adulti”.
L’IA e il fair use
Il mese scorso, la Authors Guild – guidata da importanti autori come George R.R. Martin, Jonathan Franzen e John Grisham – è intervenuta nella battaglia legale contro OpenAI. Il gruppo, che conta più di 13mila membri, rappresenta probabilmente l’avversario più temibile in una causa che potrebbe portare a centinaia di milioni di dollari di danni e all’ordine di distruggere i sistemi che si basano su opere protette da copyright.
Il potenziale mercato delle licenze è una componente fondamentale per stabilire se le aziende di IA saranno in grado di avvalersi di una difesa da fair use nelle cause che le accusano di violazione del copyright. Probabilmente queste aziende si scontreranno con la recente decisione della Corte Suprema nella causa Andy Warhol Foundation for the Visual Arts v. Goldsmith, che ha de facto limitato la portata del fair use.
In quella sentenza è stato sottolineato che l’analisi per stabilire se un’opera presumibilmente violata sia stata sufficientemente trasformata deve essere bilanciata dalla “natura commerciale dell’uso”. Secondo gli esperti legali consultati da The Hollywood Reporter, se gli autori sono in grado di stabilire che lo scraping (procedura di raccolta di dati da internet con dei bot, vuol dire letteralmente “grattare via”, ndr) dei loro romanzi da parte di OpenAI ha compromesso le prospettive economiche di trarre profitto dalle loro opere, interferendo – ad esempio – con potenziali accordi di licenza che l’azienda avrebbe potuto invece perseguire, è probabile che il fair use non venga riscontrato.
Secondo John August, un sistema di opt-in dovrebbe essere obbligatorio in qualsiasi regime di licenze. Ciò significa che i creatori non sarebbero costretti a rinunciare al loro lavoro per escluderlo dalla mole dati di allenamento.
I deepfake nella pubblicità
Diversi relatori hanno anche messo in guardia la FTC sull’aumento delle frodi che utilizzano gli strumenti di intelligenza artificiale. Tim Friedlander, presidente dell’associazione nazionale degli operatori vocali, ha ricordato le pubblicità deepfake con Tom Hanks e MrBeast. E ha aggiunto: “Attualmente bastano tre secondi di audio sorgente per creare un clone vocale realistico, e i contenuti sintetici possono essere utilizzati per ingannare i consumatori e fargli credere che voci fidate stiano comunicando con loro”.
Proprio questa settimana, Hanks e MrBeast sono scesi in campo sui social media per avvertire i fan che le aziende hanno rubato le loro sembianze senza consenso per creare delle versioni IA di loro a fini commerciali. In una delle accuse più inquietanti, Sara Ziff, fondatrice della Model Alliance, ha affermato che le agenzie di modelle stanno usando deepfakes dell’IA piuttosto che assumere modelle reali per soddisfare gli obiettivi di diversità.
“Una modella digitale creata attraverso l’intelligenza artificiale nel 2017 dalla prima agenzia interamente digitale al mondo è apparsa come base di marchi di fascia alta, come BMW e Louis Vuitton”, ha dichiarato Ziff, che ha fatto notare come anche Levi abbia annunciato quest’anno di utilizzare modelli generati dall’IA per aumentare l’apparenza di diversità. “I critici hanno definito questa operazione una forma di blackface digitale”.
L’ambito delle pratiche commerciali potenzialmente fraudolente di cui si preoccupa la FTC comprende anche le azioni che alcune aziende potrebbero mettere in atto per indebolire il lavoro. Il commissario Alvaro Bedoya ha fatto notare come gli Studios mettano alle strette gli attori di sfondo per scannerizzare le loro sembianze da utilizzare in futuro.
Traduzione di Pietro Cecioni
THR Newsletter
Iscriviti per ricevere via email tutti gli aggiornamenti e le notizie di THR Roma