Twitter ha condiviso una bozza della sua nuova politica sui media manipolati, che avrebbe lo scopo di arginare il crescente problema di questi contenuti, ormai sempre più popolari su internet e sempre più pericolosi

Deepfake: Twitter ci mette pezza. Servirà? - twitter-app-icon-ios

L'ambito in cui i deepfake possono arrecare più danni è quello attinente alla politica, dove i contenuti manipolati possono essere usati per minare la reputazione di un candidato, facendogli dire e fare cose mai dette o mai fatte. Tuttavia, anche in contesti privati, foto o video modificati possono distruggere intere esistenze.

» Leggi: I deepfake video saranno presto un problema. O lo sono già?

All'inizio di ottobre, due membri del Senato americano avevano invitato le principali società tecnologiche a sviluppare un piano per combattere i deepfake sulle loro piattaforme e lo Stato della California aveva preso provvedimenti concreti a riguardo.

In risposta a queste iniziative, Amazon si è unita a Facebook e Microsoft per supportare la sfida DeepFake Detection (DFDC), che mira a sviluppare nuovi approcci per rilevare supporti manipolati.

E oggi è arrivata anche la risposta di Twitter: la società ha affermato che quando vedrà media sintetici o manipolati, che stanno intenzionalmente cercando di fuorviare o confondere le persone:

  • inserirà un avviso accanto ai Tweet che condividono supporti sintetici o manipolati;
  • avviserà le persone prima che condividano o apprezzino i Tweet con supporti sintetici o manipolati;
  • in alternativa, aggiungerà un collegamento, ad esempio a un articolo di notizie o un Twitter Moment, in modo che le persone possano leggere di più sul perché varie fonti ritengono che quei media siano sintetici o manipolati.

Da ultimo, in modo molto vago e probabilistico, Twitter ha dichiarato che qualora un deepfake dovesse minacciare la sicurezza fisica di qualcuno o causare gravi danni, potrebbe anche rimuoverlo. La rimozione del contenuto pericoloso, quindi, è indicata come un'eventualità poco probabile e quasi remota. Sembra quasi che il social network lanci il sasso e nasconda la mano, intimorito di risultare troppo bacchettone nei confronti di quegli utenti che pubblicano foto e video manipolati.

Inoltre, non è chiaro come Twitter sarà in grado di rilevare i deepfake pubblicati sulla sua piattaforma, dato che le tecniche di rilevamento non sono perfette e spesso risultano obsolete rispetto ai metodi di creazione più recenti e avanzati.

Chiunque volesse dare il proprio feedback riguardo la nuova politica dei deepfake sul social network, può compilare questo form da ora fino a mercoledì 27 novembre 2019. Successivamente, Twitter esaminerà il feedback ricevuto e apporterà eventuali modifiche alla propria politica, che verrà poi incorporata nelle Regole di Twitter con un preavviso di 30 giorni prima che la modifica diventi effettiva.