Quando l’AI fallisce, il problema è terribilmente umano. Qualcuno avrebbe detto persino troppo umano, ma non scomodiamo eccessi di filosofia.
Piuttosto, il seme del fallimento è in parte già insito nella tecnologia che s’impiega e in parte deriva da quelle che, eufemisticamente parlando, qualcuno potrebbe collocare fra un eccesso di avventatezza e una carenza di competenza.
O consapevolezza, motivo per cui da ben prima dell’AI literacy, si insisteva sul pericolo di impiegare una tecnologia che non si comprende bene.
Ma se l’ammanco di comprensione può essere riparato con il bagno di umiltà necessario del “so di non sapere” e il balsamo di qualche manuale, magari questo non basta nel momento in cui la manualistica che si consulta è esclusivamente quella messa a disposizione da vendor e developer interessati a collezionare sottoscrizioni.
Di tanti osti che ho conosciuto, nessuno ha mai ammesso di servire pessimo vino. E credo funzioni più o meno così anche nei servizi digitali.
Quelle sbandate di troppo
Esiste, però, qualche sbandata che è decisamente di troppo nel momento in cui si vuole ricorrere a un abracadabra salvifico solo perché contiene il monogramma “AI”.
Ad esempio, nel sottovalutare quei limiti intrinseci di funzionalità e sicurezza che mai e poi mai potrebbero trovare alcun rimedio: dalle allucinazioni alle vulnerabilità.
Se l’oste OpenAI ha persino ammesso che il male del prompt injection è un problema strutturale, cos’altro possiamo dire? Non c’è framework ENISA che possa salvare, infatti, da sé stessi nel momento in cui si indulge in quegli eccessi di entusiasmo che possono far perdere il controllo del business.
Ma non si può dar la colpa all’AI. Perché, in fondo, la sua destinazione d’uso a monte e l’applicazione in concreto a valle sono sempre – e altrimenti non può essere – definite da un umano. Il quale è e sarà chiamato a risponderne.
O almeno per ora è così, salvo qualche bizzarria normativa che ancora possiamo solo sognare.











