NEUROPRIVACY

La sicurezza delle interfacce cervello-computer



Indirizzo copiato

Il mercato delle interfacce cervello-computer (BCI) si condensa di concorrenti e si addensa di nubi. Uscite dai laboratori, queste interfacce si stanno guadagnando un’utilità pratica che pone interrogativi tecnici, etici e normativi

Pubblicato il 15 apr 2026

Giuditta Mosca

Giornalista, esperta di tecnologia



Le interfacce cervello-computer pongono problemi di cybersecurity e di privacy. Il quadro normativo internazionale è ancora deficitario, ma le tecnologie per garantirne la sicurezza sono ampiamente diffuse
wallpaperflare.com
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Quando si parla di interfacce cervello-computer (Brain-Computer Interface, BCI), il pensiero corre immediatamente a Neuralink, startup fondata da Elon Musk e che, al momento, ne ha impiantata una in almeno 12 persone.

Il mercato è però densamente popolato: insieme a Neuralink vanno annoverate l’italiana Corticale, poi Precision Neuroscience (Usa), Synchron (Usa e Australia) e altre ancora, fino ad arrivare a OpenBCI che ha una natura Open source al cui sviluppo collaborano più scienziati di diversi Paesi.

Secondo le stime (sempre da prendere con le pinze), il mercato delle BCI vale poco meno di 3 miliardi di dollari e dovrebbe crescere al ritmo del 17% circa ogni anno, almeno fino al 2033.

Anche il numero di persone che vi fanno ricorso è poco preciso, si stima siano meno di un centinaio in tutto il mondo ma le previsioni parlano di un futuro con numeri in rapida crescita.

I principi di cyber security e di riservatezza delle BCI si sovrappongono, a tratti almeno, ai concetti che interessano la sicurezza biomedicale in genere.

L’importanza della sicurezza delle interfacce cervello-computer

Le BCI sono sistemi che mediano i segnali neurali e questo cambia in modo radicale il perimetro del rischio e, soprattutto, ridisegna le superfici d’attacco.

Il World Economic Forum ha sollevato domande sulle criticità di tali interfacce, pure riconoscendo nelle BCI un potenziale enorme.

Ricercatori del Yale Digital Ethics Center si stanno prodigando da mesi per comprendere come proteggerle al meglio e, già a luglio del 2025, hanno delimitato le aree di rischio principali proponendo soluzioni che, però, trasmettono un senso di incompiuto.

Altrettanto si prodigano a fare altri ricercatori, mettendo però al centro la salvaguardia dei dati neurali.

Le BCI sono composte da hardware e software che acquisiscono segnali neurofisiologici e li elaborano mediante algoritmi di decodifica utili a trasformarli in output utilizzati da computer, protesi, sistemi robotici o cursori.

Un insieme di tecnologie di differenti livelli che richiedono un approccio alla cybersecurity adeguato.

I rischi maggiori

Una BCI impiantabile compromessa apre le porte a vere e proprie manipolazioni funzionali.

Un cyber attacco potrebbe alterare i parametri acquisiti dall’interfaccia e alterare la comunicazione con i dispositivi, con ricadute potenzialmente nefaste per il paziente.

Inoltre, pure evidenziando che le BCI non sono tecnologie che “leggono il pensiero”, i dati raccolti sono biometrici e sanitari e ciò li colloca nell’area delel informazioni particolari descritte dall’articolo 9 del GPDR. Infatti, i segnali cerebrali possono rivelare pattern cognitivi, intenzioni motorie e persino stati emotivi.

Una violazione dei dati neurali non si limita ad avere ricadute reputazionali su chi produce l’interfaccia, ma scaturisce conseguenze psicologiche (e giuridiche) di tenore più elevato di quelle che si accodano alle “canoniche” fughe di dati.

Non di meno, le BCI hanno firmware aggiornabili, comunicano via wireless, si collegano a risorse cloud e usano algoritmi di Machine learning.

Ci si trova così di fronte ai problemi di cybersicurezza e di privacy sollevati da hardware, software, protocolli per la trasmissione di dati e – non da ultimo – dai mali che attanagliano i flussi di dati e le elaborazioni AI.

Sappiamo già che, in generale, i dispositivi medici connessi sono vulnerabili laddove la sicurezza non è progettata by-design e, con la complessità tecnologica delle BCI, le superfici di attacco si ampliano.

Inoltre, per quanto possa sembrare prematuro, le neurotecnologie hanno un peso geopolitico. L’uso di BCI negli ambiti riabilitativi, in quelli industriali e in quelli militari è un problema di sicurezza nazionale e la supply chain che ne permette la realizzazione è obiettivo ghiotto per il cyber crimine.

Pure a costo di generalizzare, si può dire che le BCI rendono esponenziali i rischi a cui sono esposti i dispositivi IoT medici perché dialogano con il sistema nervoso degli individui e, in questo contesto, cybersecurity e privacy sono elementi fondanti degli assetti tesi alla protezione dell’integrità fisica e mentale delle persone. Non si tratta di proteggere esclusivamente dati.

I rischi di attacco e le vulnerabilità specifiche

La letteratura di riferimento cita diversi tipi di criticità, accomunate dalla complessità della superficie di attacco delle BCI.

Per semplificare il quadro, abbiamo suddiviso le vulnerabilità in quattro macro-famiglie, ossia:

  • Vulnerabilità dei protocolli di comunicazione
  • Vulnerabilità algoritmiche
  • Rischi di “brainjacking”
  • Neuroprivacy.

Sono quattro dimensioni diverse che è opportuno scandagliare.

La vulnerabilità dei protocolli di comunicazione

Le BCI più recenti usano sistemi di comunicazione wireless e ciò equivale a una potenziale esposizione a vettori di attacco in parte già noti e attuali, soprattutto in ambito neurale.

L’intercettazione e il furto di dati, ai quali la letteratura del protocollo Bluetooth fa riferimento con i termini Bluesnarfing e Bluebugging, consente agli attaccanti di ottenere accessi non autorizzati all’intero di raggi variabili tra i 10 metri e i 100 metri, riuscendo a intercettare segnali neurali o persino a prendere il controllo delle funzioni dell’interfaccia.

C’è poi la manipolazione dei protocolli per la negoziazione delle chiavi di cifratura che consente di decifrare i neuro-dati in transito e, immancabile, va annoverato anche il rischio spoofing che può portare alla somministrazione di terapie manipolate e anche all’invio di comandi dannosi che la BCI esegue.

Non da ultimo, il rischio di inserimento di backdoor nell’hardware o nel firmware durante la produzione dei dispositivi o durante il loro aggiornamento è un rischio tangibile.

Vulnerabilità algoritmiche

Per decodificare i segnali degli elettroencefalogrammi (EEG) le BCI usano algoritmi, si profilano quindi i rischi tipici del Machine learning, ripresi e censiti da ricercatori di diversi atenei cinesi in un documento pubblicato alla fine del 2024 e dal titolo evocativo di “Adversarial Filtering Based Evasion and Backdoor Attacks to EEG-Based Brain-Computer Interfaces”.

Il documento, che spazia tra più rischi e più minacce, enfatizza gli attacchi di evasione, ovvero l’inserimento di perturbazioni impercettibili nei segnali EEG che possono causare effetti indesiderati come, per esempio, il malfunzionamento di un dispositivo collegato, ma lascia spazio anche ad attacchi meno visibili a occhio nudo. Tra questi il sempiterno data poisoning per fare sì che le interfacce imparino a rispondere a comandi malevoli.

Tema questo che non sconfina nella fantascienza. Infatti, ricercatori del Politecnico di Bari e dell’Università di Glasgow hanno stabilito che algoritmi comunemente usati non riescono a distinguere tra segnali neurali reali e segnali falsi.

Rischi di “brainjacking”

Il termine “brainjacking” indica il controllo non autorizzato di un’attività neurale. Dei cyber criminali possono indurre movimenti volontari o alterare gli stati emotivi e le capacità decisionali di chi usa una BCI.

C’è persino il rischio di indurre falsi ricordi o bias cognitivi, così come potenzialmente possono essere perpetrati attacchi ransomware di tipo neurale.

Casi tipici nei quali i criminali, ottenendo il controllo delle protesi o dei dispositivi connessi alle interfacce, possono chiedere riscatti.

Neuroprivacy

Va considerato che i dati estratti dagli EEG sono identificatori biometrici umani unici e permanenti.

Mediante attacchi side-channel è possibile ricavare informazioni sensibili (vedi link sopra) e private, tra le quali orientamenti politici e, situazione che confà i dati biometrici in generale, una loro compromissione è da ritenersi definitiva perché, se una password violata può essere modificata, altrettanto non può essere fatto con un pattern cerebrale.

La privacy cognitiva e la protezione dei dati

Un breve excursus nella privacy cognitiva prima di indicare le misure di mitigazione dei rischi.

Lo scenario che scomodiamo per spiegare meglio il rischio della violazione della privacy è tipico dei regimi ma rende bene l’idea.

Nel 2019, in Cina, è stato sperimentato un sistema di fasce EEG per misurare il livello di attenzione degli studenti durante le lezioni.

I dispositivi raccolgono i segnali cerebrali tramite sensori montati su una fascia da indossare sul capo e trasmettono in tempo reale un’indicazione sullo stato di concentrazione degli studenti, affinché gli insegnanti possano adattare il metodo didattico.

Il progetto, fortemente osteggiato dall’opinione pubblica, ha suscitato critiche tanto per via dell’accuratezza scientifica quanto per i problemi di privacy.

Senza arrivare a situazioni tanto estreme, è doveroso portare il focus sulla sicurezza e sulla gestione dei dati raccolti.

In termini operativi, parlare di cybersecurity BCI significa affrontare almeno questi temi:

  • cifratura end-to-end dei segnali neurali
  • autenticazione forte tra impianto e dispositivi esterni
  • secure boot e firmware signing
  • aggiornamenti OTA verificati e controllati
  • segmentazione delle reti cliniche
  • audit indipendenti del codice
  • threat modeling specifico per neurodispositivi
  • logging e tracciabilità forense

Misure che, con finalità diverse, sono attuali per garantire la sicurezza di infrastrutture IT, piattaforme software e di dispositivi IoT.

Il gap normativo

In Europa non esiste ancora una regolamentazione unificata o specifica dedicata esclusivamente alle interfacce cervello-computer, ma diverse norme si applicano parzialmente alla protezione dei neuro-dati.

Il GDPR rappresenta il riferimento centrale per la tutela della privacy, sebbene non contempli ancora in modo specifico la complessità e la natura intrinseca dei dati neurali.

Poiché molti dispositivi BCI sono classificati come dispositivi medici, trovano applicazione anche quadri normativi come il Medical Device Regulation (MDR), la direttiva NIS2 nella misura in cui una BCI è integrata in sistemi di operatori critici come, appunto, i servizi sanitari e l’AI Act, quest’ultimo particolarmente rilevante per il ruolo dell’intelligenza artificiale nella decodifica dei segnali cerebrali, soprattutto se rientrano nei sistemi definiti “ad alto rischio”.

Nonostante queste norme, i neuro-dati non sono ancora esplicitamente definiti come una categoria distinta nelle leggi attuali, il che crea ambiguità giuridiche sulle modalità di archiviazione, trattamento e condivisione.

Attualmente, il Parlamento europeo sta discutendo su come integrare formalmente la neuroprivacy nel quadro del GDPR, con proposte mirate a introdurre una categoria specifica per i dati neurocognitivi che includa segnali ricavati da EEG e fMRI (risonanze magnetiche funzionali).

A livello nazionale, alcuni paesi europei hanno già adottato misure pionieristiche. Tra questi figurano la Spagna, che ha introdotto la Carta dei diritti digitali e la Francia, che ha redatto una carta per lo sviluppo responsabile delle neurotecnologie.

Non di meno, alla fine del 2025 l’Unesco ha adottato standard globali sull’etica della neurotecnologia per stabilire linee guida comuni.

Ipotesi di futuro (ma con cautela)

L’ipotesi che interfacce cervello-computer possano essere impiantate in soggetti sani è fuori da ogni logica. Lo ribadisce il professor Silvestro Micera, autore del libro “Possiamo (ri)costruirlo. Riparare e potenziare il corpo umano con le neurotecnologie”.

I limiti sono di diverso ordine e iniziano proprio dal fatto che le BCI, nonostante gli impianti già attivi, sono da considerare in fase sperimentale. La loro diffusione dipenderà dalla loro efficienza e dalla percezione di sicurezza che sapranno suscitare.

Un eventuale incidente grave dovuto a vulnerabilità cyber potrebbe trasformarsi in un macigno sullo sviluppo dell’intero settore.

Infine, e anche in questo caso si tratta di un problema che riguarda qualsiasi tecnologia, occorre un quadro normativo chiaro. Chi risponde in caso di un attacco cyber a una BC e chi si fa carico delle conseguenze che questo può avere?

Le solite domande, insomma. Patate bollenti che nessun legislatore probabilmente vorrebbe tenere in mano.

Norme e regole trovano forma ed equilibrio solo in risposta a quesiti etici (e non morali) e il dibattito si consuma a tratti più lentamente di quanto le tecnologie progrediscono.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x