INTELLIGENZA ARTIFICIALE

Deepfake ed etichette fantasma: la fragile promessa delle big tech sui contenuti generati con l’IA



Indirizzo copiato

Video, immagini e testi prodotti da algoritmi sempre più sofisticati si moltiplicano con una velocità e una precisione tali da rendere sempre più difficile distinguere ciò che è autentico da ciò che è sintetico. Ecco cosa sono e come funzionano i sistemi di content labeling

Pubblicato il 5 feb 2026

Chiara Benso

Hermes Bay Intelligence Junior Analyst



Deepfake come rilevarli; Deepfake ed etichette fantasma: la fragile promessa delle big tech sui contenuti generati con l’IA

L’onda dei deepfake e dei contenuti generati dall’intelligenza artificiale cresce a un ritmo vertiginoso.

Video, immagini e testi prodotti da algoritmi sempre più sofisticati si moltiplicano con una velocità e una precisione tali da rendere sempre più difficile distinguere ciò che è autentico da ciò che è interamente – o parzialmente – sintetico.

Come ha osservato Arosha Bandara, ricercatore presso la Open University britannica, il pubblico online si trova oggi “oltre il punto in cui è in grado di gestire la portata e il realismo dei contenuti generati dall’intelligenza artificiale”.

Il vuoto della trasparenza algoritmica

Per colmare il vuoto di trasparenza algoritmica, negli ultimi anni le aziende leader del settore tech – da OpenAI a Meta, da Google a TikTok – hanno promesso di sviluppare sistemi di content labeling per aiutare i propri utenti a orientarsi nell’attuale ecosistema informativo.

L’intento era costruire, tramite l’apposizione di marcatori digitali a prova di manomissione e atti a indicare con chiarezza l’uso di IA generativa, infrastrutture tecniche in grado di salvaguardare l’informazione pubblica dai rischi legati ai deepfake e alle dinamiche di disinformazione e misinformation che ne derivano.

Tuttavia, una recente indagine condotta da Indicator ha messo in luce una distanza significativa tra gli impegni dichiarati e la loro applicazione concreta. Attraverso un monitoraggio durato tre settimane, il team di ricerca ha sottoposto a verifica lo stato corrente dell’etichettatura su Instagram, LinkedIn, Pinterest, TikTok e YouTube, pubblicando 516 post contenenti immagini e video, sia fotorealistici sia non fotorealistici, generati con l’intelligenza artificiale.

Di questi, solo 169 – poco più del 30% del totale – sono stati correttamente contrassegnati come sintetici.

Trasparenza sui contenuti digitali

Nel 2021, sei aziende – tra cui Microsoft, Adobe e la Bbc – hanno avviato un progetto comune per restituire trasparenza all’origine dei contenuti digitali. Da questa iniziativa è nato Content Credentials, uno standard tecnico pensato per accompagnare ogni file multimediale con una sorta di “carta d’identità digitale”: un pacchetto di metadati a prova di manomissione volto ad illustrare come quel contenuto è stato realizzato.

In concreto, i metadati costituiscono una traccia tecnica dettagliata che documenta l’intera catena di produzione dal modello della telecamera che ha catturato il filmato, al software adoperato per modificarlo o al sistema di intelligenza artificiale che lo ha generato.

A supervisionare il progetto è la Coalition for Content Provenance and Authenticity (C2PA), il consorzio che coordina l’adozione globale dello standard. L’obiettivo, spiega la C2PA, è fornire «una panoramica trasparente della cronologia dei contenuti, accessibile a chiunque e in qualsiasi momento».

Tecnicamente, lo standard prevede che le Content Credentials siano generate e incorporate fin dall’origine – o in fase di editing – nei file mediante una struttura crittografica composta da assertions, claims e manifests, legate ai contenuti tramite firme digitali e hash sicuri.

Tuttavia, come riconosce Andy Parsons, direttore senior per l’autenticità dei contenuti presso Adobe e figura chiave della C2PA, «la visualizzazione sulle piattaforme è incoerente.

Sebbene molte piattaforme leggano i dati C2PA, questi vengono talvolta utilizzati solo per scopi interni e non mostrati agli utenti. Ci aspettiamo che l’adozione della visualizzazione aumenti nei prossimi mesi”.

Deepfake, l’efficacia delle etichette sui contenuti generati dall’IA

Per valutare l’efficacia delle etichette sui contenuti generati dall’IA, Indicator si è servito di strumenti sviluppati da aziende aderenti al comitato direttivo C2PA e impegnatesi a incorporare metadati negli output dei loro modelli.

Nel dettaglio, sono state generate 100 immagini con Adobe Firefly, ChatGPT, Google Gemini e Meta AI, e 133 video utilizzando Google Veo (con Gemini e Flow), Meta AI, Sora 2 e i software di generazione IA interni a TikTok e YouTube. I contenuti prodotti sono stati poi pubblicati sulle principali piattaforme digitali: le immagini su Instagram, LinkedIn e Pinterest; i video su TikTok e YouTube.

La ricerca ha confermato come semplici operazioni di ritaglio o compressione dei file possano incidere sui metadati.

Per questo, tutti i test sono stati effettuati senza eseguire alcuna manipolazione dei contenuti, evitando qualsiasi intervento “antagonista”, così da dare ai sistemi di rilevazione delle piattaforme le migliori possibilità di identificare correttamente i file generati con l’IA.

Inoltre, al fine di minimizzare eventuali interferenze legate al tipo di dispositivo utilizzato, la pubblicazione è avvenuta, alternando tra computer portatile (attraverso browser) e telefono (tramite app mobile).

Infine, dopo il caricamento, i ricercatori hanno verificato la presenza delle etichette IA sia direttamente sui contenuti sia nei menu espansi che le piattaforme dichiarano di poter utilizzare per mostrare queste informazioni.

Un fattore chiave di differenziazione

Proprio il tipo di dispositivo si è rivelato un fattore chiave di differenziazione nei risultati:

  • le immagini generate con Adobe Firefly su dispositivi mobili e scaricate su iPhone non riportavano Content Credentials, mentre quelle create su computer portatile sì;
  • nella maggior parte dei casi, l’assenza di tali credenziali ha comportato la mancata etichettatura da parte delle piattaforme;
  • le immagini generate con Gemini e salvate su iPhone come file (anziché come foto) non venivano etichettate come contenuti IA su Instagram;
  • anche i video generati con Sora 2, pur contenendo metadati, non hanno attivato il meccanismo di etichettatura IA su YouTube se pubblicati da dispositivo mobile, mentre hanno ricevuto etichettatura corretta quando caricati da computer portatile.

Le prestazioni delle piattaforme nel
rilevare i contenuti generati dall’IA

In particolare, l’analisi ha rilevato significative discrepanze tra le prestazioni delle piattaforme nella rilevazione dei contenuti generati dall’IA.

Tra le piattaforme per le immagini, Pinterest si è distinta per efficacia relativa, avendo etichettato correttamente 55 dei 100 post condivisi, e l’88% delle immagini generate con ChatGPT.

LinkedIn ha rilevato solo 25 immagini su 100, mentre Instagram ne ha etichettate appena 17, segnando uno 0% di etichettatura per le immagini generate con Meta AI.

Sul fronte video, YouTube ha registrato performance nettamente superiori rispetto a TikTok: per esempio, il 53% dei video generati con Sora 2 di OpenAI è risultato correttamente etichettato su YouTube, mentre TikTok non ne ha riconosciuto alcuno.

Quest’ultima piattaforma è stata, infatti, in grado di applicare marcature esclusivamente ai contenuti artificiali prodotti attraverso il proprio tool interno, non rilevando quelli realizzati attraverso i software IA di Google, Meta AI e OpenAI.

Tuttavia, anche YouTube ha mostrato limiti: i video, frutto dell’uso di Gemini, non hanno ricevuto un’etichettatura corretta.

Google e Meta

Per quanto riguarda Google e Meta, in diversi casi i loro sistemi di rilevamento non hanno etichettato nemmeno i contenuti generati con i propri strumenti di intelligenza artificiale.

Nello specifico, nel caso di Meta AI, nessuna delle 60 immagini e video creati tramite il sito web o l’app ha mostrato Content Credentials durante l’ispezione condotta tramite “Verify”, il tool sviluppato dalla C2PA per controllare la presenza e l’integrità dei metadati crittografici associati ai file multimediali.

Nemmeno l’analisi da computer portatile ha rivelato metadati. Una verifica supplementare condotta dalla società di rilevamento di deepfake GetReal sui medesimi contenuti ha riscontrato la presenza di metadati IPTC nei video generati con Meta AI, ma non nelle immagini.

Meta non ha fornito risposte specifiche riguardo ai propri software di IA generativa, limitandosi a dichiarare che l’identificazione dei contenuti generati con IA è resa complessa dal rapido sviluppo tecnologico, e che l’azienda sta continuamente migliorando i meccanismi di etichettatura.

Il malfunzionamento dell’etichettatura di Meta e TikTok

Indicator ha, infine, osservato che i recenti aggiornamenti dello standard C2PA, rilasciati a maggio e ottobre 2025, potrebbero spiegare il malfunzionamento dell’etichettatura di Meta e TikTok.

Tuttavia, anche questa ipotesi evidenzierebbe una profonda vulnerabilità nell’implementazione delle etichette IA da parte delle piattaforme, specialmente se confrontata con gli standard di sicurezza informatica.

In essi, infatti, gli aggiornamenti crittografici tendono ad essere retrocompatibili in modo tale da preservare la continuità delle versioni precedenti. Considerando che i video generati con OpenAI sono risultati etichettati in modo conforme allo standard C2PA, secondo Indicator i problemi riscontrati sembrerebbero legati a processi organizzativi interni di Meta e TikTok piuttosto che a questioni tecniche relative ai metadati.

Deepfake, inefficacia e frammentazione delle etichette

I risultati dell’analisi di Indicator evidenziano come, ad oggi, l’etichettatura dei contenuti generati con IA rimanga largamente inefficace e frammentata. Nonostante l’adozione di sistemi come C2PA Content Credentials, progettati per fornire metadati verificabili su immagini e video, le piattaforme digitali faticano a rendere queste informazioni direttamente visibili e utilizzabili dagli utenti.

Come osserva Claire Wardle, professoressa associata di comunicazione presso della Cornell University, il mero rilascio di una funzione non ne garantisce l’efficacia operativa; da qui l’esigenza di un monitoraggio continuo da parte di ricercatori e organismi di regolazione.

Le regolamentazioni in Usa e Ue

L’introduzione di regolamentazioni a livello statale (in California) e sovranazionale (in Unione europea) potrebbe contribuire, entro l’estate del 2026, a rendere più capillare l’applicazione delle etichette sui contenuti generati con IA.

Tuttavia, il successo di queste misure dipenderà non solo dall’implementazione tecnica, ma anche da un atteggiamento più trasparente di tali aziende. Come sottolineato da Claire Leibowicz, Direttrice di AI, Trust & Society presso il Partnership on AI, “se esistono ostacoli tecnici reali che rendono questo compito più difficile del previsto, le aziende devono esplicitarli, in modo che la comunità più ampia possa contribuire a risolverli in modo collaborativo – non usare la complessità come scusa per l’inazione o sopravvalutare le proprie capacità”.

Fino a quando le piattaforme social non riusciranno a rendere pienamente efficaci i sistemi di rilevamento ed etichettatura, la responsabilità di navigare con consapevolezza nell’ecosistema digitale ricadrà in gran parte sugli utenti, sottolineando l’urgenza di strumenti educativi e di monitoraggio indipendente della qualità dell’informazione online capaci di supportare una fruizione critica dei contenuti generati con l’IA.

Articoli correlati