INTELLIGENZA ARTIFICIALE

LinkedIn addestrerà l’AI con i dati degli utenti: ecco come opporsi



Indirizzo copiato

Anche LinkedIn seguirà Meta, Google e OpenAI nell’utilizzo dei dati degli utenti per addestrare l’AI, dal prossimo 3 novembre. Ma il GDPR stabilisce il diritto d’opposizione degli utenti, invitati a compiere una libera scelta

Pubblicato il 19 set 2025



LinkedIn utilizzerà i dati degli utenti per il training AI: cosa bisogna sapere per concedere o meno il consenso

Dal prossimo 3 novembre 2025, LinkedIn, come già Meta e le altre Big tech, sfrutterà alcuni dati degli utenti al fine dell’addestramento dell’AI.

L’obiettivo da parte del social network dei professionisti consiste nel miglioramento dell’AI generativa e dei modelli LLM che produce contenuti allo scopo di ottimizzare l’esperienza d’uso della piattaforma.

L’utente deve solo decidere se concedere il proprio consenso all’uso dei dati per l’addestramento dell’intelligenza artificiale o rifiutarne lo sfruttamento nelle impostazioni su LinkedIn.

“Anche LinkedIn seguirà Meta, Google e OpenAI nell’utilizzo dei dati degli utenti per addestrare l’AI”, commenta Tania Orrù, Privacy Officer e Consulente Privacy Tuv Italia.

“Sul piano dei diritti, agli utenti non basta poter dire semplicemente ‘sì’ o ‘no, ma occorre introdurre veri e propri diritti computazionali”, aggiunge Federica Giaquinta, consigliere direttivo di Internet Society Italia. Ecco cosa significa e cosa possiamo fare per decidere liberamente di offrire il proprio consenso o al contrario effettuare l’opposizione all’uso dei propri dati in base al rispetto del GDPR.

Training AI su LinkedIn: tocca a noi concedere il consenso o no

Anche il social media per professionisti della galassia Microsoft ha annunciato che da novembre inizierà a sfruttare i dati per addestrare l’intelligenza artificiale.

La scelta di concedere il consenso o rifiutarlo spetta solo agli utenti di LinkedIn, attraverso l’apposito pulsante. Per farlo, è sufficiente collegarsi alla relativa pagina di configurazione del proprio account e spostare il cursore Dati per migliorare l’IA generativa su o su No a seconda che si voglia concedere o meno il consenso all’utilizzo dei propri dati personali.

Ciò è possibile proprio grazie al GDPR, il noto Regolamento Generale sulla Protezione dei Dati dell’Unione Europea, in vigore dal 2018.

“Il GDPR, rispetto a finalità non strettamente necessarie, richiede una base giuridica distinta (consenso o legittimo interesse). Agli utenti spetta quindi il diritto di opposizione e di revoca del consenso, da esercitare con modalità semplici e trasparenti” spiega Orrù.

I precedenti di Meta e la sfida di LinkedIn nell’AI

La richiesta d’uso dei dati da parte di LinkedIn arriva sulla scia di precedenti richieste da parte di altri social media.

Da fine maggio scorso, infatti, Meta ha iniziato a utilizzare i post pubblici degli utenti maggiorenni, tra cui commenti, foto, didascalie, e i dati generati mediante i suoi servizi di AI, per addestrare il suo servizio Meta AI e i modelli linguistici LLaMA.

“Lo scenario è duplice: servizi sempre più evoluti, ma anche il rischio di contenziosi se i diritti non saranno realmente garantiti”, spiega Orrù.

“Gli utilizzi eccedenti potrebbero tradursi in perdita di controllo sui dati e in forme di profilazione più invasive rispetto alle aspettative originarie”, mette in guardia la Privacy Officer.

Non è escluso che molti utenti rifiutino il consenso, riducendo così l’attrattiva e l’efficacia dell’iniziativa. La vera sfida per LinkedIn sarà integrare la compliance ‘by design’ nello sviluppo dell’AI, così da generare fiducia reale negli utenti“, conclude Tania Orrù.

Secondo Federica Guaquinta, “occorre introdurre veri e propri diritti computazionali. Ciò significa poter scegliere in modo granulare per quali finalità i propri dati possano essere usati, avere consensi a scadenza automatica, portare con sé le proprie preferenze tra piattaforme e accedere a log di trattamento comprensibili”.

“La fiducia si costruisce se LinkedIn è in grado di fornire prove concrete e verificabili: attestazioni sulla provenienza dei dati, garanzie di non riutilizzo in altri servizi e, soprattutto, un meccanismo di ‘uscita dal modello’ che assicuri, con la verifica di un soggetto terzo, che l’influenza del dato sia stata effettivamente rimossa dall’algoritmo. In assenza di queste misure crescerà non solo il numero di rifiuti del consenso, ma anche il rischio di lock-in informativo, profilazioni non attese e contenziosi su nuove basi probatorie. La vera sfida non è chiedere un permesso formale, ma dimostrare con trasparenza tecnica e governance robusta che l’uso dei dati è necessario, proporzionato e reversibile“, conclude Federica Giaquinta.

Articoli correlati