Twitter ha condiviso una bozza della sua nuova politica sui media manipolati, che avrebbe lo scopo di arginare il crescente problema di questi contenuti, ormai sempre più popolari su internet e sempre più pericolosi
L'ambito in cui i deepfake possono arrecare più danni è quello attinente alla politica, dove i contenuti manipolati possono essere usati per minare la reputazione di un candidato, facendogli dire e fare cose mai dette o mai fatte. Tuttavia, anche in contesti privati, foto o video modificati possono distruggere intere esistenze.
» Leggi: I deepfake video saranno presto un problema. O lo sono già?
All'inizio di ottobre, due membri del Senato americano avevano invitato le principali società tecnologiche a sviluppare un piano per combattere i deepfake sulle loro piattaforme e lo Stato della California aveva preso provvedimenti concreti a riguardo.
In risposta a queste iniziative, Amazon si è unita a Facebook e Microsoft per supportare la sfida DeepFake Detection (DFDC), che mira a sviluppare nuovi approcci per rilevare supporti manipolati.
E oggi è arrivata anche la risposta di Twitter: la società ha affermato che quando vedrà media sintetici o manipolati, che stanno intenzionalmente cercando di fuorviare o confondere le persone:
- inserirà un avviso accanto ai Tweet che condividono supporti sintetici o manipolati;
- avviserà le persone prima che condividano o apprezzino i Tweet con supporti sintetici o manipolati;
- in alternativa, aggiungerà un collegamento, ad esempio a un articolo di notizie o un Twitter Moment, in modo che le persone possano leggere di più sul perché varie fonti ritengono che quei media siano sintetici o manipolati.
Da ultimo, in modo molto vago e probabilistico, Twitter ha dichiarato che qualora un deepfake dovesse minacciare la sicurezza fisica di qualcuno o causare gravi danni, potrebbe anche rimuoverlo. La rimozione del contenuto pericoloso, quindi, è indicata come un'eventualità poco probabile e quasi remota. Sembra quasi che il social network lanci il sasso e nasconda la mano, intimorito di risultare troppo bacchettone nei confronti di quegli utenti che pubblicano foto e video manipolati.
Inoltre, non è chiaro come Twitter sarà in grado di rilevare i deepfake pubblicati sulla sua piattaforma, dato che le tecniche di rilevamento non sono perfette e spesso risultano obsolete rispetto ai metodi di creazione più recenti e avanzati.
Chiunque volesse dare il proprio feedback riguardo la nuova politica dei deepfake sul social network, può compilare questo form da ora fino a mercoledì 27 novembre 2019. Successivamente, Twitter esaminerà il feedback ricevuto e apporterà eventuali modifiche alla propria politica, che verrà poi incorporata nelle Regole di Twitter con un preavviso di 30 giorni prima che la modifica diventi effettiva.