Dal momento in cui le AI hanno saturato web, media e social spinte da un marketing agguerrito e persistente potrebbe sembrare che possano fare tutto e di più da sole. Ma anche il marketing più spinto non deve o non dovrebbe sovrastare la realtà delle cose, ovvero che i sistemi di AI possono davvero molto, ma solo se pre-addestrati in modo specifico/etico e per l’utente finale, solo se interrogati in modo appropriato, guidati nel modo corretto, insomma solo se usati con consapevolezza e metodo.
In pratica questi sistemi possono costituire uno strumento avanzato capace di aumentare le capacità e conoscenze del singolo e costituire insieme alla persona un “soggetto potenziato”, un cosiddetto “augmented human”. Ne abbiamo parlato con Enrico Frumento, Cybersecurity Research Lead del Cefriel.
Indice degli argomenti
Il valore del ‘sistema di coppia’
Quale che sia l’ambito lavorativo o l’argomento di interesse in cui esprimere le proprie competenze, quasi sempre formazione e supporti tecnologici hanno migliorato le performance del singolo.
Oggi che i sistemi di AI nella forma di agenti, di LLM specializzati, di bot sono in via di integrazione in diversi contesti tecnologici, “ogni esperto, di qualsiasi campo/area esso sia, potrebbe beneficiare di capacità aumentate per essere più veloce, più intelligente, più resiliente” spiega Frumento.
Inoltre, fa notare, “le AI da sole hanno spesso mostrato pregiudizi (bias), contenuti tossici e dei disallineamenti sistemici (systemic misalignment) da ricondurre alla natura stessa delle modalità attraverso cui queste tecnologie apprendono e si comportano. Questo fatto induce domande lecite sul potenziale ricorso massivo a tecnologie, che possono nascondere ‘mostri’ facilmente attivabili a meno di garantire un certo livello di ‘sicurezza delle AI’”.
Una argomentazione, questa, che sembra richiedere sempre l’affiancamento di una persona ad uno strumento di AI per ‘sicurezza e prevenzione’ ma che potrebbe rappresentare un valido ‘sistema di coppia’ per la rispettiva evoluzione delle AI e delle persone.
Questo affiancamento potrebbe infatti rivelarsi vantaggioso per il singolo individuo anche sono necessarie alcune condizioni: l’alfabetizzazione per usare le AI (AI literacy) e lo sviluppo di competenze sull’uso delle AI (AI competency).
In proposito Enrico Frumento spiega che “la differenza fra le due è importante, anche nel tipo di formazione che si sceglie, ma usarle insieme libera pensieri di livello superiore, fatti di critica, ragionamento complesso”.
Una sorta di deep thinking risultante dai processi di coaching e mentoring fra l’uomo e l’agente artificiale per scambiare analisi di qualità degli output, come una persona farebbe con un neofita.
Le molteplici dimensioni di aumento cognitivo possibile
In aggiunta prosegue “due concetti sono particolarmente interessanti: il deskilling” (da arginare n.d.r.) “e le AI viste come “protesi cognitive” (da incrementare n.d.r.). In merito al primo fenomeno “l’eccessiva delega di compiti cognitivi all’AI può condurre a un’atrofia delle abilità umane fondamentali, quali la comprensione della lettura, l’analisi critica o la scrittura. È pertanto essenziale mantenere una pratica consapevole di questi ‘muscoli’ cognitivi per evitarne l’indebolimento”.
In proposito è stato condotto uno studio del MIT che sembra evidenziare un accumulo di debito cognitivo quando si utilizza un assistente AI per la scrittura di un saggio e che a valle degli studi sui diversi gruppi di lavoro condotti con e senza AI a supporto, conclude affermando che ogni persona ha una scelta: dipendere dall’IA con un progressivo ‘intorpidimento’ cerebrale oppure diventare un moltiplicatore di IA sviluppando la propria forza cognitiva.
L’esperto spiega in dettaglio che “l’indebolimento avviene invece solo se si utilizza la tecnologia senza comprenderla. In tal caso, il pensiero critico potrebbe risentirne. La chiave, come con qualsiasi tecnologia, è usarla saggiamente per i suoi punti di forza, senza dare la colpa agli altri.
Ad esempio, ChatGPT può essere uno strumento di formazione. L’AI offre la possibilità di creare”, prosegue il docente, “ma quando si utilizza un modello di apprendimento linguistico (LLM) in modo efficace, ci si rende presto conto che porre le domande giuste può essere piuttosto impegnativo. Questo processo affina il pensiero perché richiede di comprendere chiaramente cosa si vuole, come ne si ha bisogno e quanto le risposte dell’LLM siano in linea con le proprie aspettative. Incoraggia ad approfondire le proprie esigenze e favorisce una maggiore comprensione. Una persona sa cosa sia necessario e può ricorrere agli agenti AI per farselo fare, guadagnando tempo e guidando il processo di sviluppo del ragionamento, piuttosto che subirlo”.
Tutto questo sviluppa capacità cognitive legate all’uso di un nuovo strumento tecnologico. Anzi l’amplificazione delle capacità cognitive umane a mezzo AI potrebbe portare ad una co-evoluzione come spiega il ricercatore “in generale, la ‘co-evoluzione’ uomo-AI non è una relazione statica, bensì un processo iterativo e perpetuo in cui esseri umani e algoritmi si influenzano reciprocamente in un ciclo continuo. In letteratura si parla molto di Intelligenza Aumentata, come ad esempio in Augmented Intelligence vs Artificial Intelligence – ITChronicles”.
Limiti attuali della interazione con le AI
Per favorire un uso consapevole e anche per non continuare a ‘errare diabolicamente’ nell’uso dei sistemi di AI, si dovrebbero conoscere i limiti che attualmente hanno questi strumenti.
Fermo restando il potenziale decadimento di conoscenza di un ‘utente zombie’, l’AI notoriamente manca di empatia, comunicazione non verbale e solitamente non muove critiche, non controbatte criticamente nel dialogo, tanto che solitamente enfatizza le cosiddette camere di Eco (situazione in cui le informazioni, le idee o le convinzioni vengono amplificate o rafforzate dalla comunicazione e dalla ripetizione senza critiche o correzioni).
Una delle maggiori limitazioni è l’incapacità di comprendere lo ‘humor’; questi sistemi possono generare battute già note o giochi umoristici, ma non possono ‘capirli’ come risulta da alcuni esperimenti di ricerca fra cui “Do Androids Laugh at Electric Sheep? Humor “Understanding” Benchmarks from The New Yorker Caption Contest”.
Lo stesso ricercatore chiarisce i motivi di tale lacuna “in termini di ragionamento i sistemi GPT da sempre hanno il problema di un ragionamento mono direzionale; ad esempio, non sanno raccontare o creare barzellette, perché queste richiedono tipicamente una lettura in avanti ed una riflessione all’indietro per coglierle. Cosa che qualsiasi AI non sa fare”. In sostanza aggiunge “le AI non sostituiscono a meno che non gli lasciamo noi il posto, l’AI è una sorta di ‘idiot savant’ che sa bene riempire i buchi di tematica, ma non aggiunge conoscenza nuova”.
Così sebbene gli agenti di AI sembrino ‘maghi digitali’, il trucco c’è e pur senza smascherarlo, se ne deve essere coscienti. “I grandi nomi del mondo AI fanno una gran fatica per rendere le AI apparentemente intelligenti, ma qui spesso e per lungo tempo ancora varrà il tema del pappagallo stocastico. Non bisogna dimenticarlo. L’interfaccia a testo ed il modo in cui le AI, per motivi commerciali anche, si relazionano con gli utenti poi, facilitano la pareidolia (l’illusione subcosciente che tende a ricondurre a forme note degli oggetti o profili, naturali o artificiali, dalla forma casuale n.d.r.)”.
A tal proposito il ricercatore evidenzia con metodo scientifico come l’AI “sembri ’apparentemente autorevole nascondendo contenuti non verificati, e per tale motivo il rischio di decisioni sbagliate si fa concreto”. E aggiunge “siamo ancora ad inizio ma vari casi hanno mostrato che la manipolazione tramite questi sistemi è dietro l’angolo”. Manipolazione comprovata anche da esperimenti specifici riportati dal WSJ .
Una manipolazione che tra l’altro potrebbe avvenire su grandi numeri visto l’uso massivo delle AI: lo studio 2025: The State of Consumer AI | Menlo Ventures riporta 1,8 miliardi di utenti consumer che spendono anche per servizi premium di ChatGPT e dai dati di luglio sull’utilizzo di chatGPT il trend sembra in crescita: ChatGPT.com riceve circa 4,61 miliardi di visite al mese, gli utenti inviano 2,5 miliardi di messaggi ogni giorno tanto che OpenAI pianifica di raggiungere 1 miliardo di utenti entro la fine del 2025. (Fonte explodingtopics).
I dati statistici indicano anche una preferenza per le ricerche usando direttamente gli assistenti di AI (ChatGPT, GEMINI etc). in proposito Enrico Frumento spiega che “una buona parte delle ricerche ora non vanno più nemmeno su Google, e non escono da chatGPT. Questo vuole dire che la gente usa chatGPT e si accontenta della risposta che viene riportata. Un dato assieme a quello della manipolazione, delle allucinazioni che è decisamente interessante”.
La “Bassa risoluzione” come cause di un ricorso massivo alle AI/LLM
Proprio quest’ultimo elemento toccato dal ricercatore evidenzia un comportamento prettamente umano che incide sul trend di adozione delle AI: la maggior parte delle persone si accontenta della prima risposta, della versione superficiale e non pretende una qualità maggiore, verificando o chiedendo maggiori dati.
Come dire si accontenta di una “bassa risoluzione”. Il tema trattato anche dal libro omonimo di Massimo Mantellini, edizione Einaudi “è stato scritto prima dell’avvento delle AI, ma è decisamente attuale”, ci spiega Enrico Frumento.
Nel testo del libro l’autore chiarisce istintivamente l’essere umano “riduce intenzionalmente le aspettative che riserva alla tecnologia …(omissis)… la tecnologia che possiamo usare senza pensare, o almeno pensando poco, è quella che è. Pensare poco è la nostra colpa”. E i motivi sono gli stessi del successo che fu dei motori di ricerca, “google come motore di ricerca è un fine specchio della società dell’informazione è il diavolo fatto e finito, è la superficie al posto della profondità, l’impressione immediata tenuta in conto più del ragionamento”.
L’autore, quindi, traccia il ‘trend di bassa risoluzione’ seguendo l’avvento dei social perché “a un certo punto il messaggio semplificatorio ha vinto la battaglia per la nostra attenzione; post-verità ha significato semplicemente, che qualsiasi informazione diventava degna della nostra attenzione a patto che fosse elementare e polarizzata” (di bassa risoluzione per l’appunto n.d.r.).
L’autore fotografa questo trend con particolare enfasi sull’Italia che scrive “pare essersi adattata alla bassa risoluzione come elemento generale di funzionamento, mentre negli altri paesi esso è riservato ad una fetta di pubblico, minoritaria, perché le linee guida sono comunque direzionate verso l’alta risoluzione” concludendo con una osservazione che suona come un monito “viviamo ormai circondati dalla tecnologia, ma questa tecnologia ci sfugge, ha regole di funzionamento che scavalcano la nostra possibilità di comprensione immediata ed allora abbiamo reagito rinunciando alla necessità di capire, principio guida dell’illuminismo, per accontentarci della necessità di funzionare, principio guida di un vitalismo un po’ reazionario”.
Aprire gli occhi, capire e agire con metodo sembra quindi irrinunciabile, specialmente alla luce dei luoghi comuni e delle estremizzazioni legate alle AI da cui non ci deve far impressionare e convincere.
Luoghi comuni ed estremizzazioni legati alle AI
I “miti” legati alle AI che affollano i social riguardano la sostituzione di personale nel lavoro, gli impianti artificiali e scenari che ricordano la fantascienza dei film alla “terminator”, ma come per l’entusiasmo iniziale sui social, così oggi per le AI bisogna tornare con i piedi per terra, come osserva il ricercatore: “ricordo quali fossero le discussioni all’epoca dei social network. Si parlava dell’avvento di una nuova era di conoscenza, amicizia e scambio culturale fra le persone. Le cose poi sono andate diversamente. Quelli che gridano alle AI stile Terminator, pronte a sostituire le persone, in realtà poco capiscono di come funzionano e se ne trovano molti anche fra persone di cultura, evidentemente non tecnica. Ma in generale fra qualche tempo si capirà bene quali siano le limitazioni di questi sistemi”.
Successe anche per le blockchain. “Ricordo i ‘claim’ sulle blockchain che le riportavano come la soluzione globale per rivoluzionare internet. Le cose poi sono andate in modo differente. È un po’ il destino di quasi tutte le tecnologie. Come andranno in questo contesto è difficile dirlo, ma sicuramente posso preconizzare che le AI diventeranno più specializzate e strumenti di lavoro di ‘augmentation’ e ‘non substitution’ dell’uomo”.
I vari soggetti entusiasti delle AI che le propongono come il prezzemolo dappertutto, forse dovranno ricredersi “si troveranno a fare i conti con incapacità derivanti dallo spingere l’adozione delle AI in contesti nei quali mal si adattano”.
In questo senso alcuni autori di contenuti scientifici hanno evidenziato limitazioni: “gli autori ci ricordano che i modelli attuali, anche i cosiddetti modelli ‘ragionanti’, non fanno altro che predire statisticamente il token successivo; spiegano che il gioco che stiamo facendo quando sollecitiamo questi modelli sta davvero alterando la probabilità del loro output per ottenere qualcosa di utile o accurato”. (Frumento in questo esempio cita uno specifico podcast).
Quindi avverte il ricercatore, “costruire su queste basi applicazioni e peggio ancora automazioni aziendali va fatto con i ‘piedi di piombo’ e credo che uscire dal coro dei ‘true believers’ o degli entusiasti, come fa il Cefriel, sia necessario per dare valore vero e non emotivo”.













