C’è una nuova sfida personale, professionale, etica e giuridica da affrontare: la tutela dei neurodiritti. Ma se l’uso e non l’abuso da parte delle aziende non è ancora disciplinato da normative, regolamenti e indicazioni del garante, cosa può o deve fare la singola persona per essere parte attiva nella difesa dei suoi neurodiritti?
Per capire cosa siano e come poterli tutelare ne abbiamo parlato con alcuni esperti che hanno fornito chiarimenti e suggerito come procedere: Barbara Calderini, Legal Tech e Compliance manager, Francesco Paolo Micozzi, avvocato e docente di informatica giuridica, Oreste Pollicino, professore di regolamentazione dell’Intelligenza artificiale alla Bocconi e fondatore di Pollicino AIdvisory, e Guido Scorza, avvocato, Componente del Collegio del Garante per la protezione dei dati personali presso Autorità Garante dei dati Italiani (The Italian Data Protection Authority),
Lo sviluppo delle neurotecnologie come branca medica e tecnologica di avanguardia apre orizzonti promettenti in relazione al rapporto con il cervello e i dati neurali.
E questo sia per la cura di malattie degenerative o per lo studio della mente umana, sia per la convergenza multidisciplinare con l’Intelligenza Artificiale (legate alla registrazione o addirittura alterazione/induzione dell’attività neuronale umana e all’avanzamento della scienza del cervello e dell’ingegneria neurale).
Un dato, quest’ultimo, che solleva preoccupazioni sulla sorveglianza, sulla manipolazione subliminale delle preferenze, sul controllo e sulla raccolta o di informazioni cerebrali e mentali.
L’esigenza la spiega Barbara Calderini: “Si parla di tecniche di trattamento dei dati, inclusi quelli personali, che per loro stessa natura tendono a svincolarsi dalla questione dell’identità individuale oggetto della tutela delle normative vigenti. Quindi si verifica l’esigenza di creazione di nuovi diritti a tutela delle esigenze emergenti”.
L’avvocato Micozzi aggiunge che “il termine neurodiritti nasce da un neologismo, sono diritti, che si assumono come fondamentali, finalizzati alla protezione dell’essere umano da tutte le conseguenze che possano discendere da un’interazione tra neurotecnologia e mente umana: interfacce cervello-computer, ovvero BCI, la stimolazione cerebrale profonda, ovvero la DBS, le tecniche di neurofeedback o, ancora, quelle neuro-riabilitative”.
Ma si rende necessario un passo in più, come chiarisce la manager: “Molti studiosi sostengono l’introduzione dei neurodiritti nelle costituzioni nazionali e nelle dichiarazioni internazionali sui diritti umani e stanno sviluppando anche principi tecnici. Tra questi quello della salvaguardia dell’integrità mentale che diviene elemento essenziale e imprescindibile da integrare in qualsiasi dispositivo che abbia la capacità di interferire con essa”.
Indice degli argomenti
Un rischio concreto
In particolare, se si parla del rischio, l’esperta sottolinea come “rimanga il dubbio se gli strumenti digitali possano favorire, invece che contrastare, l’esercizio di poteri arbitrari, sia pubblici che privati, con il serio rischio di comprimere l’autonomia personale e indebolire i principi alla base dello stato di diritto”.
Aggiunge, in termini di rischio, Paolo Micozzi che “tra le conseguenze ipotizzabili nell’interazione tra neurotecnologia e mente umana possiamo pensare all’alterazione più o meno intensa delle attività neurali o della capacità di autodeterminazione, nonché l’esfiltrazione, alterazione e riuso delle informazioni acquisite dal ‘dispositivo biologico’ tramite, appunto, pratiche neurotecnologiche”.
Ma è forse necessario ampliare ancora di più l’ottica del rischio perché, precisa Barbara Calderini, “le neuroscienze e le tecnologie digitali si intrecciano per creare nuovi mercati, nuove forme di controllo e nuove sfide per la tutela dei diritti fondamentali. Se l’era del digitale ha già mostrato quanto possa essere pericoloso delegare il potere normativo e regolatorio alle grandi piattaforme tecnologiche, il rischio che questo errore si ripeta con le neuroscienze è ancora più grave”.
Come responsabilizzare e guidare le aziende produttrici
Sul fronte delle organizzazioni che producono tecnologie collegate con le funzioni neurali esistono significative criticità sul fronte della trasparenza, della sicurezza dei dati e dell’etica. Quindi il cambiamento strutturale dovrebbe basarsi su questi punti perché in qualche modo siamo già implicitamente condizionati.
Lo studio del Leverhulme Center for the Future of Intelligence di Cambridge”, riporta la manager, “afferma che siamo già testimoni della transizione dall’economia dell’attenzione a quella dell’intenzione: grazie agli assistenti virtuali, le aziende riescono a trasmettere agli inserzionisti le intenzioni d’acquisto prima ancora che gli stessi individui ne siano pienamente consapevoli”.
Contromisure efficaci dovrebbero prevedere una deontologia apposita per queste organizzazioni. Come esempio l’UNESCO che “ha lanciato una consultazione online per elaborare una raccomandazione sull’etica della neurotecnologia, con l’ambizioso obiettivo di definire linee guida per uno sviluppo responsabile di queste tecnologie, a beneficio dell’umanità e non a suo detrimento”.
Ma se si vuole agire davvero secondo l’esperta è necessario agire su cinque punti:
- Trasparenza e chiarezza: Le aziende devono fornire informazioni dettagliate e comprensibili sui processi di raccolta e utilizzo dei dati neurali, adottando standard etici chiari e certificazioni riconosciute per dimostrare il loro impegno nella protezione degli utenti.
2. Consenso effettivo e informato: I meccanismi di consenso devono essere ripensati per garantire una scelta realmente consapevole, con strumenti che permettano agli utenti di modificare o revocare facilmente le proprie autorizzazioni. Le interfacce utente dovrebbero essere progettate per agevolare la comprensione e la gestione della privacy.
3. Implementazione di misure di sicurezza avanzate: Tecnologie di crittografia, autenticazione multifattoriale e aggiornamenti costanti devono diventare la norma per proteggere i dati da accessi non autorizzati. Il monitoraggio continuo delle vulnerabilità è essenziale per mantenere elevati standard di cybersecurity.
4. Conformità normativa e anticipazione dei futuri standard: Oltre al rispetto del GDPR e delle normative esistenti, le aziende dovrebbero interfacciarsi con enti regolatori e comunità scientifiche per sviluppare e implementare nuovi standard di neurodiritti. Le collaborazioni interdisciplinari tra esperti di tecnologia, diritto ed etica possono facilitare l’adozione di pratiche più sicure ed etiche.
5. Impegno etico e responsabilità sociale: È fondamentale integrare nei prodotti e servizi principi di tutela dell’integrità mentale, assicurandosi che nessuna tecnologia possa alterare in modo coercitivo o manipolativo lo stato mentale degli utenti. La creazione di comitati etici aziendali o indipendenti può garantire un monitoraggio continuo dell’impatto delle neurotecnologie, evitando abusi e garantendo il rispetto della dignità individuale.
Cosa fare come singolo individuo: autotutela come “must”
Sul fronte personale l’esperta sottolinea come “non basta entusiasmarsi per le potenzialità delle neurotecnologie; è altrettanto necessario comprenderne i rischi. Informarsi è il primo passo per tutelarsi: leggere articoli, studi e report di esperti aiuta a sviluppare un senso critico e a distinguere tra soluzioni sicure e altre potenzialmente invasive in grado di rivelare schemi cognitivi, stati emotivi o persino intenzioni di ciascuno”. Ma il singolo da solo arriva fino ad un certo punto.
L’importanza dell’autodeterminazione
In questo senso Barbara Calderini chiarisce come “il concetto di autodeterminazione assuma un ruolo centrale: nell’era digitale e delle neurotecnologie, la gestione delle informazioni personali diventa sempre più sofisticata e invasiva, rendendo fondamentale che gli individui abbiano piena libertà e potere decisionale su come, quando e con chi condividere i propri dati”.
Un aspetto critico per l’esperta “è la distinzione tra il controllo sui propri dati e il consenso al loro trattamento: il controllo implica una scelta autonoma e continua da parte dell’individuo, mentre il consenso è spesso percepito come un atto una tantum, influenzato da dinamiche di asimmetria informativa. Spesso, infatti, le aziende tecnologiche ottengono il consenso in modi che non garantiscono una reale comprensione delle implicazioni da parte degli utenti.”
In questo senso è opportuno approfondire sempre la politica di privacy e i termini di un servizio digitale: “nonostante questi documenti risultino spesso lunghi e complessi, dedicare del tempo alla lettura delle sezioni relative alla raccolta dei dati e alle condizioni di consenso può fare una certa differenza”.
Proteggere i dispositivi
Per la protezione dei dispositivi la legale dichiara che “è strettamente necessario fare verifiche prima di acquistare o utilizzare un prodotto neurotecnologico, per controllare quali protocolli di sicurezza siano adottati e se l’azienda fornisca aggiornamenti regolari per mantenere la protezione efficace nel tempo. Perché un dispositivo che adotta standard di sicurezza elevati offre una protezione significativamente maggiore”.
Basterebbe curare l’aggiornamento di vulnerabilità attivando gli aggiornamenti periodici, come ricordato dall’esperta “ogni aggiornamento software non serve solo a migliorare le funzionalità, ma molto spesso include correzioni di vulnerabilità che possono essere sfruttate da soggetti malintenzionati”.
“Anche chi non è particolarmente esperto di tecnologia può proteggersi seguendo alcune semplici pratiche: verificare periodicamente che le applicazioni utilizzate siano aggiornate; abilitare gli aggiornamenti automatici sui dispositivi per garantire che le ultime patch di sicurezza vengano installate senza ritardi; utilizzare password robuste e, se possibile, abilitare l’autenticazione a due fattori per aumentare il livello di protezione dei propri account”.
Azioni necessarie di regolamentazione e controllo
L’esperienza di altri paesi e la posizione in Europa
Guardando ad altri paesi, l’avvocato Micozzi cita come esempio “il Cile, il primo ad aver inserito nella propria carta costituzionale delle norme con richiami espliciti in materia di neurodiritti. Ma ci sono altri spunti anche nella Carta de ‘derechos digitales’ (2021) del Governo spagnolo e nella Risoluzione del Parlamento europeo del 3 maggio 2022 sull’intelligenza artificiale in era digitale”.
In particolare l’esperto si soffermo proprio su quest’ultima risoluzione in cui il Parlamento europeo si esprime apprezzando il significativo progresso, ma esprimendo anche preoccupazione per “l’assenza di una normativa concernente i dati neurologici e ritiene che l’UE debba adoperarsi per diventare un leader mondiale nello sviluppo di tecnologie neurologiche sicure, auspicando che la Commissione europea possa considerare un’iniziativa sui neurodiritti con l’obiettivo di proteggere il cervello umano da interferenze, manipolazioni e controlli da parte della neurotecnologia basata sull’intelligenza artificiale”.
Allo stesso tempo si incoraggia “la Commissione a sostenere un’agenda sui neurodiritti a livello delle Nazioni Unite al fine di includerli nella dichiarazione universale dei diritti umani: diritti all’identità, il libero arbitrio, la privacy mentale, la parità di accesso ai progressi relativi all’aumento del cervello e la protezione dal pregiudizio algoritmico”.
La situazione in Italia
È Guido Scorza a fornire una vista sul Garante italiano “L’Autorità già nel 2022 aveva auspicato fosse definito uno statuto giuridico ed etico, sui neurodiritti in base a cui coniugare l’innovazione con la dignità della persona. Ma sebbene l’Autorità Garante possa stimolare, è il decisore pubblico a dover affrontare talune questioni. Si sta provando a farlo insieme, nei confronti della società tutta perché i diritti, per quanto fondamentali siano, non esistono se la gente non li conosce, non se ne innamora, non li promuove e protegge”.
In sostanza L’avvocato Scorza spiega che si vigila in presenza di segnalazioni di abusi, ma “molto di quello che accade, non avviene in Italia e, quindi, i nostri poteri sono limitati”.
Tuttavia, le regole esistono e infatti precisa come “le regole consentano di fare comunque molto per provare a orientare industrie e mercati e personalmente non sono convinto che nuovi interventi regolatori, specie se volti a definire nuovi diritti, i cc.dd. neurodiritti, siano indispensabile. I dati che affollano il nostro cervello sono semplicemente dati personali super particolari, potrei dire super personali. Forse basterebbe una ‘privacy aumentata’ per governare il fenomeno al quale stiamo assistendo”.
Le regulatory sandbox
In tema di modalità di costruzione di regole, interviene Oreste Pollicino che precisa come “il contrasto al rischio che il dato neurale diventi merce di scambio e sfruttamento, data la sua natura intima e rappresentativa della nostra identità personale, è faticoso da intercettare per il diritto. Il tema, non è solo quello di costruire regole nuove, ma di capire come costruirle. È qui che l’approccio sperimentale delle legal sandbox potrebbe giocare un ruolo decisivo”.
Per specificare di cosa si parla il docente precisa “si tratta di soluzioni giuridiche capaci di adattarsi, in tempo reale, al passo di innovazioni che incidono direttamente sulla libertà e sulla dignità dell’individuo. L’obiettivo è affinare strumenti giuridici che non si limitino a inseguire la tecnologia, ma siano in grado di guidarla. Pena, altrimenti, il rischio che siano le logiche del mercato e della tecnica a riscrivere il confine ultimo della libertà individuale”.
Una strada possibile
La ricetta per Barbara Calderini parte dalla necessaria premessa che la “tutela della neuroprivacy e dell’autodeterminazione cognitiva non è una sfida solo tecnica o economica, bensì profondamente politica e giuridica. Come tale, deve essere inquadrata entro regole chiare e proporzionate, che garantiscano non solo un’efficace applicazione delle norme, ma anche strumenti di accountability efficaci e meccanismi di controllo rigorosi, in grado di contrastare disallineamenti di principio o la concentrazione del potere nelle mani di pochi attori, siano essi pubblici o privati”.
In pratica “il potere pubblico e i decisori tecnici hanno la responsabilità nel guidare il processo di regolamentazione, attenuare i rischi di usi distorti e nell’imporre meccanismi di controllo adeguati”.
Auspica quindi “l’implementazione di un quadro normativo solido e trasparente come elemento indispensabile per definire i limiti dell’accesso e dell’utilizzo delle neurotecnologie, garantendo al contempo la responsabilità e la tracciabilità nella loro applicazione”.
E ogni altro indugio o attesa è definito “inappropriato all’urgenza della situazione attuale. In effetti, conclude, “il passaggio dall’attuale situazione (as is) a uno scenario più sicuro e rispettoso dei diritti (to be) è ancora lungo, ma richiede un impegno condiviso tra aziende, istituzioni e cittadini”.