Deepfake addio: navigare sul web con maggiore fiducia

Deepfake addio: navigare sul web con maggiore fiducia

Addio ‘deepfake’, ovvero quei video falsi ma che difficilmente si riesce ad individuare come fasulli. Per generare questi video si fa ricorso a una tecnica di apprendimento automatico (machine learning), conosciuta come rete antagonista generativa, che sfrutta l’intelligenza artificiale per ricreare in maniera artificiosa il volto e la voce di una persona. Il risultato è talmente ben fatto che l’ignaro utente è portato a pensare che si tratti effettivamente un video girato con una telecamera, e non un video compromesso e creato per nuocere alla reputazione della ‘vittima’ protagonista. Un problema simile a quello riscontrato con le ‘fake news, ossia articoli assolutamente falsi, creati con informazioni inventate o ingannevoli, con l’unico scopo di spingere il lettore a cliccare sopra il link per aprirlo.

Per aiutare gli utenti a non cadere più in queste trappole, di cui purtroppo il web è saturo, Adobe, Twitter ed il New York Times si sono alleati. Il fine di questa alleanza è quello di portare chiarezza su chi è effettivamente il creatore delle foto o dei video. “Combattere la cattiva informazione richiede che l’intero ecosistema – creatori, editori e piattaforme – lavori insieme’”, ha sostenuto Marc Lavallee, responsabile della ricerca e sviluppo del New York Times.

Come intendono riuscire nell’impresa?

È stato annunciato di recente che si sta sviluppando un sistema (tool) in grado di farlo e dunque di smascherare i deepfake. Si sa ancora molto poco a riguardo, ma una cosa quasi certa è che darà la possibilità agli utenti di controllare se, a un determinato contenuto, sono state apportate modifiche da terze parti. Il nome del prototipo in questione è Content Authenticity Initiative (CAI).

Come funziona il CAI?

Funziona attraverso dei metadati che vengono ‘agganciati’ al file originale realizzato mediante programmi di Adobe, come ad esempio Photoshop. In pratica consente ai creatori e agli editori di allegare in modo sicuro i dati di attribuzione ai contenuti che scelgono di condividere. Gli utenti potranno in questo modo accedere al percorso di attribuzione per avere una sicurezza per quanto riguarda l’articolo o il video che stanno vedendo.

Tutto ciò è volto a diminuire la disinformazione online, dando modo ai lettori di fidarsi di ciò che vedono o consultano, anche perché al giorno d’oggi internet è uno dei modi principali per informarsi praticamente su qualsiasi tipo di argomento.

Esistono già alcuni trucchi per verificare se si è in presenza di una fake news:

  • Cercare username su Google: il modo migliore per verificare se una persona è davvero chi dice di essere è tramite l’uso della barra di ricerca di Google.
  • Controllare se sui social è presente la spunta blu: è una garanzia riguardo l’identità di quella persona o azienda.
  • Utilizzare Google Images per vedere i metadati: questi contengono infatti informazioni sul luogo in cui la foto è stata scattata e sul tipo di strumento utilizzato per farla.
  • Usare editor fotografici per capire se una foto è stata ‘photoshoppata’.

Per quanto riguarda questi ‘deepfakes’, Twitter ha già imposto delle regole: queste prevedono che il social inserisca una nota ai tweet che contengono deepfake, avvertendo gli utenti prima che la condividano. L’eliminazione dei video invece avverrà se e solo se questi saranno considerati minacciosi per l’incolumità fisica di qualcuno.

Benedetta Mancini

Leave a Reply

Your email address will not be published.