In futuro Twitter potrebbe avvertire gli utenti se stanno guardando o condividendo video, audio o foto ‘manipolati’, ad esempio i cosiddetti ‘deepfakes’, ma senza rimuoverli. La proposta è contenuta in una bozza di policy pubblicata dal social sul proprio blog.
I ‘deepfakes’, video falsi resi indistinguibili dagli originali grazie all’intelligenza artificiale, sono considerati un pericolo ad esempio se utilizzati per diffondere false informazioni sui politici in prossimità di elezioni. Il 98% di quelli censiti in rete, ha scoperto uno studio pubblicato recentemente, riguarda finora soprattutto donne inserite in video porno. Le regole proposte da Twitter, che ha lasciato fino al 27 novembre la possibilità di commento agli utenti, prevedono che il social inserisca una nota ai tweet che contengono deepfake, e avvertano gli utenti prima che la condividano.
I video sarebbero rimossi soltanto se considerati minacciosi per l’incolumità fisica di qualcuno o se possono portare a ‘danni gravi’. “Se si rivolge a Twitter per capire cosa succede nel mondo – si legge nel post – vogliamo che l’utente abbia un’idea del contesto del contenuto che sta vedendo. Tentativi deliberati di fuorviare o confondere le persone con media manipolati mettono a rischio l’integrità della conversazione”.