Discover

Truffe e fake news con i video deepfake: i trucchi per riconoscerli

Riuscire a riconoscere una fake news e/o un video deepfake in pochi secondi è una delle principali sfide da vincere in questi anni. Quando queste clip, realizzate con software sempre più precisi e performanti, hanno uno scopo puramente ricreativo, d’intrattenimento, possono senza dubbio regalare qualche minuto di allegria e curiosità.

Il problema, però, sorge quando i deepfake vengono realizzati e montati ad arte, con l’obiettivo di disinformare, ingannare e truffare chi li guarda, spesso usando i volti di ignare celebrità (attori, cantanti, politici, sportivi, ecc.). Basti pensare – ad esempio – a quel video diventato presto virale durante le festività natalizie, che ha come protagoniste Giorgia Meloni ed Elly Schlein. Ecco qualche consiglio per non farsi ingannare.

Come riconoscere un video deepfake

Per fortuna, ci sono ancora alcuni elementi che fungono da campanello d’allarme, sui quali potrai soffermarti per capire rapidamente se il video che stai guardando è un deepfake:

  1. Movimenti innaturali: presta attenzione ai movimenti del viso e del corpo. I deepfake spesso presentano movimenti rigidi, innaturali o scomposti, non di rado al rallentatore. Osserva bene dettagli come occhi, labbra e braccia. Nei deepfake le palpebre non vengono quasi mai battute, i capelli sono poco naturali, le rughe non autentiche con pelle liscia in modo artificiale.
  2. Incongruenze nella luce e nelle ombre: controlla se la luce e le ombre sul viso del soggetto sono coerenti con l’ambiente circostante, ad esempio se il protagonista indossa degli occhiali. I deepfake, infatti, spesso presentano delle imperfezioni evidenti nella gestione delle luci e delle ombre.
  3. Sfocature e stranezze: a volte sono presenti stranezze nell’immagine come sfocature o sbavature intorno ai bordi del viso. Questi dettagli possono rivelare che il video è stato manipolato ad arte.
  4. Sincronizzazione audio e video: ascolta attentamente il filmato. Se la voce non è perfettamente sincronizzata con i movimenti delle labbra – e capita molto spesso – potrebbe essere un segnale di deepfake. L’audio a volte è poco naturale e di scarsa qualità, con una pronuncia che sembra fin da subito artificiale.
  5. Errata profondità di campo: i deepfake possono avere una profondità di campo non corretta, con sfondi eccessivamente sfocati o comunque fuori fuoco.

Dipartimento per l’Informazione e l’Editoria della Presidenza del Consiglio dei Ministri e lotta ai deepfake

Anche le autorità sono sempre più impegnate attivamente nella lotta ai deepfake potenzialmente pericolosi (sia per chi li guarda che per la reputazione dei volti noti utilizzati senza autorizzazione per realizzarli). Sul profilo Instagram ufficiale del Dipartimento per l’Informazione e l’Editoria della Presidenza del Consiglio dei Ministri, ad esempio, sono presenti diversi contenuti utili sull’argomento.

“La percezione gioca un ruolo determinante – si legge in uno dei post dedicati al tema, con una dichiarazione del Sottosegretario Alberto Barachini -. Quando un cittadino vede per molte volte un contenuto distorto, pur sapendo che è distorto, ne viene influenzato. Questo avviene soprattutto con le persone note. Se vengono rappresentate digitalmente in maniera negativa, si abbassa la loro reputazione, senza che in realtà abbiano fatto nulla in tal senso”. Attualmente è in esame al Senato un Ddl sull’ampio tema dell’uso dell’intelligenza artificiale.

Il nuovo reato di deepfake in Italia

Il testo provvisorio approvato dal Consiglio dei ministri si compone di 25 articoli e affronta diverse tematiche: da ricerca e sviluppo fino alla definizione dei reati informatici commessi attraverso l’intelligenza artificiale. Lo scopo principale del disegno di legge in questione è assicurare che l’AI venga sviluppata ed utilizzata secondo principi di correttezza, trasparenza e responsabilità. Tra i contenuti più rilevanti sono presenti: la difesa del copyright, del valore dell’editoria e dell’informazione, con conseguente tutela dei posti di lavoro (soprattutto in campo giornalistico).

Segue l’identificazione dei contenuti prodotti con l’intelligenza artificiale, per rendere i cittadini più consapevoli del nuovo reato di deepfake, cioè l’alterazione completa di un contenuto da reale a non reale. Infatti, il disegno di legge introduce una nuova fattispecie di reato e delle aggravanti proprio in materia di deepfake. Gli esperti e la Commissione UE concordano sul fatto che forma e contenuto del provvedimento possono essere migliorati. Di recente, comunque, il Garante per la Privacy ha dato parere favorevole al Ddl, ma ha anche chiesto al Governo di integrarlo in più parti, in modo da garantire una maggiore tutela dei dati personali dei cittadini.

Gli italiani e l’intelligenza artificiale

In attesa delle modifiche e dell’approvazione definitiva del provvedimento, va detto che c’è senza dubbio bisogno di un quadro normativo preciso sul tema. Qual è la percezione del rischio degli italiani in tema di deepfake e di intelligenza artificiale? Lo rivela un sondaggio Ipsos-Studio Previti effettuato e diffuso nei mesi scorsi. Siamo consapevoli del fatto che l’intelligenza artificiale può creare dei falsi digitali difficili da riconoscere, ma un po’ meno della media mondiale (71% contro 74%).

Solo il 46% degli intervistati italiani, tuttavia, teme che l’AI possa aumentare la circolazione di fake news, rispetto ad una media globale del 51%. Quanto a cosa sia esattamente una deepfake, dice di saperlo solo 1 italiano su 3, mentre questa consapevolezza aumenta tra le imprese, fino al 64%. Più nello specifico, poi, la metà degli intervistati è preoccupata dalle nuove tecnologie e chiede mezzi in grado di garantirne un uso sicuro. Dai software per il riconoscimento dei contenuti AI (47%), a regole più chiare (42%) e pene più severe (36%).

Video deepfake e fake news

Allenarsi a riconoscere le fake news è un buon modo per diventare esperti anche nella detection dei video deepfake. Ecco alcune domande da porsi sia davanti a una fake news che a un video deepfake. Chi ha scritto, realizzato e pubblicato la news o il video? La fonte viene citata espressamente? La notizia o il video avvantaggia qualcuno in particolare? Ci sono altre fonti – attendibili – che hanno pubblicato l’articolo o la clip in questione?

Nella news o nel video il protagonista dichiara o fa cose che non ha mai detto o fatto, quindi chiaramente incompatibili con la sua attività o il suo personaggio? Qual è il contesto all’interno del quale si inquadra la notizia o il filmato? Se non c’è alcun contesto o fai comunque fatica ad inserirlo nella realtà quotidiana, hai probabilmente a che fare con un contenuto falso ed ingannevole.

Ultimi articoli

Attesa per X Money: il social di Elon Musk diventerà un portafoglio digitale

Grazie ad un importante accordo con Visa, X di Elon Musk lancerà presto X Money, wallet digitale per pagare comodamente dall’app.

Creator che ti insegnano a suonare la chitarra

Sui social, sono presenti diversi tutorial di musicisti che si reinventano nelle vesti di content creator e insegnanti di chitarra.

Snapchat e Pinterest sono ancora utili per la tua strategia social?

Fatturato e utenti in crescita sia per Snapchat che per Pinterest. Ti sveliamo in quali casi possono essere utili per la tua strategia social.

TikToker che ti consigliano musica da ascoltare

I social possono essere utilizzati anche per consigliare musica. Ci sono dei creator, soprattutto TikToker, che ne suggeriscono moltissima.

Che cos’è e come funziona DeepSeek, l’AI cinese di cui tutti parlano

Semplice e veloce da usare, DeepSeek è la sorpresa 2025 nel mondo AI. Non mancano però i rischi, come privacy e censura.