Nel mondo occidentale (per quanto sia difficile definire dei confini) e sicuramente in Europa il dibattito politico e le normative (in UE, almeno in questo, siamo all’avanguardia) cercano di porre dei limiti, da ultimo con l’AI Act, alla potenza dell’intelligenza artificiale.
Peraltro, a fine luglio è stata pubblicata in Argentina la Resoluciòn 710/2024 secondo cui è essenziale applicare l’intelligenza artificiale nella prevenzione, individuazione, indagine e perseguimento della criminalità e delle sue connessioni.
Ciò in particolare sulla base di queste tre considerazioni sull’intelligenza artificiale:
- rappresenta uno dei cambiamenti socio-tecnologici più rilevanti per la popolazione generale;
- alcuni Paesi – ne vengono citate di varie aree del globo – sono pionieri nel suo uso e la utilizzano nell’analisi video e nel riconoscimento facciale, nella previsione del crimine, nella sicurezza informatica, nell’analisi dei dati, nei droni e nella robotica, nella comunicazione e nel coordinamento, negli assistenti virtuali e nell’automazione, nell’analisi dei social network e nel rilevamento di frodi e anomalie;
- l’utilizzo dell’intelligenza artificiale può migliorare significativamente l’efficacia e l’efficienza delle diverse aree delle Autorità preposte alla sicurezza.
Indice degli argomenti
La norma argentina per l’uso dell’AI contro la criminalità
Fra le disposizioni della norma vi è quella che prevede una apposita Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS), con la missione di provvedere a: prevenzione, accertamento, investigazione e perseguimento della criminalità e delle sue connessioni attraverso l’uso dell’intelligenza artificiale.
Tramite la perlustrazione di social network e siti web (anche del dark web) potranno essere condotte indagini su crimini e identificarne gli autori, nonché individuare situazioni di grave rischio per la sicurezza, specificando che ciò deve avvenire entro la cornice “de la Constitución Nacional y la legislación vigente”: quindi derive di tecno-sorveglianza sono passibili di censura da parte della magistratura.
L’UIAAS è competente per l’esame e confronto di immagini su supporti fisici o virtuali, l’analisi delle riprese delle telecamere di sicurezza in tempo reale per rilevare attività sospette o identificare le persone ricercate utilizzando un facile riconoscimento.
Fra gli strumenti a disposizione vi sono:
- l’utilizzo di algoritmi di intelligenza artificiale per analisi storiche di dati sulla criminalità per prevedere, a fini preventivi, crimini futuri;
- l’identificazione di modelli insoliti nelle reti di computer e la rilevazione di minacce informatiche prima che possano verificarsi attacchi.
Non manca, poi, fra le competenze della nuova entità, l’analisi delle attività sui social network per rilevare potenziali minacce, identificare movimenti di gruppi criminali o prevedere disordini e la rilevazione di transazioni finanziarie sospette o comportamenti anomali che potrebbero indicare attività illegali.
I rischi di un simile uso dell’intelligenza artificiale
Va da sé che la lotta alla criminalità e al terrorismo deve dotarsi di armi almeno pari a quelle di chi, in maniera violenta, cerca di perseguire in maniera illecita e non democratica i propri fini. Fra questi, quindi, l’analisi di dati e transazioni, la perlustrazione del web e del dark web, l’utilizzo di TVCC: ma sempre nel rispetto di un quadro giuridico che, per la privacy, ha in Europa valenza sovranazionale.
Il rischio che, comunque, permane è che una carente supervisione dei predetti sistemi di intelligenza artificiale generativa/predittiva e la assolutizzazione delle relative conclusioni, senza conoscere il funzionamento di tali sistemi (fra cui la presenza di potenziali bias cognitivi) anche al fine di renderli effettivamente neutri è preoccupante.
Insomma, il processo decisionale degli algoritmi basato su “se-allora” e su meccanismi euristici autoregolantesi può generare decisioni automatiche infondate ma che si tramutano in realtà.
Rimane primario il vaglio decisionale della magistratura
Preoccupante è la assolutizzazione di previsioni su crimini e atti terroristici futuri basati su big data e data mining se non viene in concreto garantito un vaglio decisionale non (solo) delle forze dell’ordine ma anche e soprattutto di quel potere autonomo che è e deve rimanere la magistratura.
Insomma: l’Europa ha appena varato il proprio AI Act e la sua attuazione dovrebbe metterci al riparo da derive tecno-autocratiche e dalla potenza economica (e non solo) sovranazionale di alcuni grandi player.
Ciò che si verifica in varie parti del mondo – in assenza di norme come l’AI Act – potrebbe comportare che l’intelligenza artificiale superi la realtà (prevenendo ciò che ancora non è accaduto e potrebbe non accadere mai).
Un film come Minority report – che mette assieme le visioni letterarie di Philip K. Dick e quelle cinematografiche di Steven Spielberg, con la collaborazione di un Tom Cruise in uno dei suoi ruoli più complessi – è al riguardo emblematico: in base alle previsioni (degli algoritmi umani i Pre-Cog) vengono arrestate persone prima che infrangano la legge ma se il futuro viene fermato prima che si compia ciò non comporta un paradosso?
Conclusioni
In Argentina c’è chi teme un decadimento dei diritti dei cittadini e della privacy.
Peraltro, va chiarito, la sopra citata Costituzione Argentina prevede fra i diritti dei cittadini che “Ningún habitante de la Nación puede ser penado sin juicio previo fundado en ley anterior al hecho del proceso, ni juzgado por comisiones especiales, o sacado de los jueces designados por la ley antes del hecho de la causa” (art. 18) e che “Las acciones privadas de los hombres que de ningún modo ofendan al orden y a la moral pública, ni perjudiquen a un tercero, están sólo reservadas a Dios, y exentas de la autoridad de los magistrados. Ningún habitante de la Nación será obligado a hacer lo que no manda la ley, ni privado de lo que ella no prohíbe” (art. 19).
Ciò che in concreto accadrà nell’applicazione della norma in esame interessa senz’altro chi si occupa anche di privacy in Argentina, ma anche altrove.
E interessa, quindi, chi si interessa di privacy e tutti noi. Le “magnifiche sorti e progressive” sembrano un futuro che si allontana sempre più nel passato.
Le opinioni espresse sono a titolo esclusivamente personale e non coinvolgono ad alcun titolo l’Istituto pubblico ove presta servizio.