meme della settimana

Derapate AI-driven



Indirizzo copiato

Utilizzare un’AI in modo responsabile richiede consapevolezza e competenze che non sempre sono presenti, motivo per cui nel momento in cui c’è un fallimento “AI-driven” la responsabilità è sempre da ricercare in un elemento umano, alla fonte o altrimenti a valle

Pubblicato il 3 apr 2026



meme4cyber360_sbandateaidriven
Credits to: Stefano Gazzella – https://www.linkedin.com/in/stefano-gazzella/
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Quando l’AI fallisce, il problema è terribilmente umano. Qualcuno avrebbe detto persino troppo umano, ma non scomodiamo eccessi di filosofia.

Piuttosto, il seme del fallimento è in parte già insito nella tecnologia che s’impiega e in parte deriva da quelle che, eufemisticamente parlando, qualcuno potrebbe collocare fra un eccesso di avventatezza e una carenza di competenza.

O consapevolezza, motivo per cui da ben prima dell’AI literacy, si insisteva sul pericolo di impiegare una tecnologia che non si comprende bene.

Ma se l’ammanco di comprensione può essere riparato con il bagno di umiltà necessario del “so di non sapere” e il balsamo di qualche manuale, magari questo non basta nel momento in cui la manualistica che si consulta è esclusivamente quella messa a disposizione da vendor e developer interessati a collezionare sottoscrizioni.

Di tanti osti che ho conosciuto, nessuno ha mai ammesso di servire pessimo vino. E credo funzioni più o meno così anche nei servizi digitali.

Quelle sbandate di troppo

Esiste, però, qualche sbandata che è decisamente di troppo nel momento in cui si vuole ricorrere a un abracadabra salvifico solo perché contiene il monogramma “AI”.

Ad esempio, nel sottovalutare quei limiti intrinseci di funzionalità e sicurezza che mai e poi mai potrebbero trovare alcun rimedio: dalle allucinazioni alle vulnerabilità.

Se l’oste OpenAI ha persino ammesso che il male del prompt injection è un problema strutturale, cos’altro possiamo dire? Non c’è framework ENISA che possa salvare, infatti, da sé stessi nel momento in cui si indulge in quegli eccessi di entusiasmo che possono far perdere il controllo del business.

Ma non si può dar la colpa all’AI. Perché, in fondo, la sua destinazione d’uso a monte e l’applicazione in concreto a valle sono sempre – e altrimenti non può essere – definite da un umano. Il quale è e sarà chiamato a risponderne.

O almeno per ora è così, salvo qualche bizzarria normativa che ancora possiamo solo sognare.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x