D’ora in avanti chi carica un video su YouTube dovrà indicare chiaramente quali contenuti sono stati realizzati con l’Intelligenza artificiale. Le conseguenze per chi non etichetta correttamente i contenuti potrebbero comportare la rimozione del video, la sospensione dell’account o la demonetizzazione.

La piattaforma di video musicali e non ha introdotto nuove linee guida per la gestione dei contenuti generati tramite Intelligenza artificiale, in particolare, i deepfake.
Le nuove norme si dividono in due categorie principali, una più rigida, volta a tutelare i partner dell’industria musicale della piattaforma, e un’altra meno restrittiva, applicabile al resto degli utenti.

Ma cosa è “realistico”?

L’azienda ha chiarito che i creatori dovranno etichettare i contenuti realistici generati dall’AI, rendendo esplicito immediatamente che sono stati realizzati con l’Intelligenza artificiale, soprattutto se riguardano contesti delicati come le elezioni politiche o situazioni di conflitto attuali.
Queste etichette saranno visibili nelle descrizioni dei video e direttamente sui video stessi, nel caso di materiale sensibile.

La definizione di “realistico” da parte di YouTube però non è ancora stata precisata. Tuttavia, il portavoce Jack Malon ha indicato che l’anno prossimo, quando questa politica entrerà in vigore, verranno fornite indicazioni più dettagliate, complete di esempi.

Cosa succede nel caso di deepfake satirici?

Resta incerto, però, come YouTube possa identificare con certezza i video generati dalla AI non etichettati, considerando che gli attuali strumenti di rilevamento sono ancora poco affidabili.
La situazione si complica ulteriormente per i video che utilizzano deepfake per simulare persone reali, come nel caso della loro voce o del loro volto.

YouTube permetterà le richieste di rimozione tramite un modulo esistente, ma valuterà diversi fattori, ad esempio, se il contenuto è una parodia o una satira o se l’individuo rappresentato nel video è un personaggio pubblico.
Ma per i contenuti musicali generati da AI che imitano la voce cantata o parlata di un artista, non saranno ammesse eccezioni per parodia e satira. I canali che producono ‘coperture’ AI di artisti vivi o deceduti potrebbero comunque vedere i loro contenuti rimossi, riporta Adnkronos.

“Mantenere un sano ecosistema di informazioni”

Negli ultimi tempi, attori come Tom Hanks e Scarlett Johansson hanno intentato cause contro software di Intelligenza artificiale che avevano sfruttato i loro volti e voci per realizzare spot pubblicitari senza permesso.

La novità potrebbe quindi segnare un passo importante verso la tutela del copyright e il suo rapporto con l’AI, riferisce Ansa. “Crediamo sia nell’interesse di tutti mantenere un sano ecosistema di informazioni su YouTube – si legge sul blog della piattaforma -. Abbiamo politiche di lunga data che vietano i contenuti tecnicamente manipolati che ingannano gli spettatori, e che possono rappresentare un rischio di danno grave”.