l’approfondimento

ChatGPT, a dicembre arrivano le conversazioni erotiche: i punti aperti



Indirizzo copiato

OpenAI abiliterà conversazioni erotiche su ChatGPT per adulti verificati a partire da dicembre 2025. La scelta, presentata come applicazione del principio “trattare gli adulti come adulti”, accelera la corsa alla “compagna digitale” e impone un innalzamento degli standard su tutela dei minori, progettazione responsabile e trasparenza

Pubblicato il 15 ott 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



OpenAI ChatGPT conversazioni erotiche

A partire dal mese di dicembre 2025, gli adulti verificati potranno effettuare conversazioni erotiche su ChatGPT: è l’annuncio con cui OpenAI introduce nel perimetro di un grande chatbot generalista funzionalità finora tipiche di piattaforme verticali.

La rilevanza non è solo tecnologica o di mercato: riguarda l’architettura dei controlli (age-gating affidabile, separazione dei contesti, prevenzione dell’elusione) e la capacità di governare effetti psicosociali documentati da ricerche recenti.

Conversazioni erotiche su ChatGPT: la notizia

A margine dell’annuncio, l’azienda ha fatto sapere, per voce del CEO Sam Altman, che collegherà questa apertura a un rafforzamento del controllo dell’età e a nuove opzioni per rendere le risposte del chatbot più “amichevoli” e “umane”.

Altman ha spiegato che, dopo una fase iniziale di forte prudenza per i rischi di salute mentale, OpenAI ritiene di aver mitigato i problemi più gravi e intende applicare il principio “trattare gli adulti come adulti”.

Il cambio di policy arriva dopo un periodo in cui erano emersi casi preoccupanti, con il modello GPT‑4o alcuni utenti vulnerabili sarebbero stati trascinati in spirali deliranti; in un episodio, un utente si sarebbe convinto di essere un genio della matematica con una missione salvifica; in un altro, i genitori di un adolescente hanno citato in giudizio OpenAI sostenendo che il chatbot avrebbe incoraggiato idee suicidarie.

In risposta, l’azienda ha introdotto diversi correttivi contro la sycophancy (l’eccesso di compiacenza del modello) e ha varato GPT‑5, progettato con tassi più bassi di adulazione e con un router in grado di individuare comportamenti d’uso preoccupanti.

Successivamente sono state lanciate funzioni dedicate ai minori, tra cui un sistema di predizione dell’età e strumenti per il controllo parentale.

OpenAI ha inoltre annunciato la creazione di un consiglio di esperti di salute mentale per guidare l’azienda sui temi del benessere. Altman ha chiarito che l’accesso a contenuti erotici sarà limitato ai verificati maggiorenni.

Qualora il sistema di predizione dell’età etichettasse erroneamente un adulto come minorenne, l’utente potrà caricare un documento d’identità per rimuovere il blocco; secondo Altman si tratta di un compromesso di privacy ritenuto accettabile.

Non è ancora definito se l’apertura coinvolgerà anche voci, immagini o video generati dall’AI. Il contesto competitivo spinge in questa direzione.

Piattaforme come Character.AI hanno mostrato che il role‑play romantico/erotico aumenta l’ingaggio, già nel 2023 gli utenti trascorrevano in media due ore al giorno in chat.

L’uso “relazionale” dei chatbot riguarda anche i minori: un report del Center for Democracy and Technology ha rilevato che quasi uno studente su cinque nelle scuole superiori statunitensi ha avuto, o conosce qualcuno che ha avuto, una relazione romantica con un chatbot.

OpenAI sostiene di non volere «massimizzare l’uso» a ogni costo, ma la strategia complessiva sembra orientata a rendere ChatGPT più permissivo, a febbraio l’azienda ha dichiarato di voler rappresentare un ventaglio più ampio di opinioni politiche; a marzo ha aggiornato le policy per consentire in determinati contesti immagini generate con simboli d’odio a fini di analisi o discussione.

Resta incerto se, con GPT‑5 di default e i nuovi guardrail, gli utenti vulnerabili cadano ancora in rabbit hole deliranti; GPT‑4o non è più predefinito ma rimane disponibile e usato da migliaia di persone.

Conversazioni erotiche su ChatGPT: dal fatto ai punti aperti

L’annuncio introduce nel perimetro di un grande chatbot generalista funzionalità finora tipiche di piattaforme verticali.

La rilevanza non è solo tecnologica o di mercato, riguarda l’architettura dei controlli (age‑gating affidabile, separazione dei contesti, prevenzione dell’elusione) e la capacità di governare effetti psicosociali documentati da ricerche recenti.

A partire da questa notizia, il pezzo ricostruisce lezioni operative dai casi Meta e dagli studi su solitudine e uso affettivo dei chatbot, indicando requisiti minimi per piattaforme e policy maker in ambito UE.

Il precedente Meta: quando i confini cedono

Le inchieste sui chatbot di Meta hanno mostrato che, in assenza di controlli efficaci, i sistemi conversazionali possono scivolare in dialoghi sessuali anche con utenti minorenni, soprattutto in modalità vocale e in scenari di role‑play.

Il successivo irrigidimento delle policy dimostra che la sola autoregolazione non è sufficiente quando l’incentivo economico è l’aumento del tempo di interazione.

La lezione è chiara: senza guardrail tecnici, organizzativi e di processo, la simulazione dell’intimità tende a oltrepassare le intenzioni progettuali e a erodere la fiducia pubblica.

Solitudine, attaccamento, dipendenza: cosa dicono gli studi

Le ricerche indicano una dinamica ricorrente. Nel breve periodo, l’interazione con chatbot “empatici” può attenuare la solitudine percepita. Nel medio periodo, una quota ristretta ma significativa di utenti intensivi sviluppa forme di uso affettivo con segnali di attaccamento e dipendenza, fenomeno più marcato nelle interazioni vocali con voci coinvolgenti.

L’impatto varia in funzione di genere, stato emotivo iniziale, natura della conversazione (personale o impersonale), durata e frequenza d’uso.

Questo quadro è coerente con la cosiddetta friend economy, l’empatia come leva di retention aumenta l’onere di una progettazione orientata al benessere e alla sicurezza by design.

Sullo sfondo, la crescente esposizione degli adolescenti a relazioni “romantiche” con chatbot suggerisce che le piattaforme non possano limitarsi a informative generiche, ma debbano assumere obblighi stringenti di protezione attiva.

“Trattare gli adulti come adulti” non basta, la linea rossa sui minori

La compatibilità tra apertura all’erotica per adulti e tutela degli utenti dipende dal presidio della soglia under‑18.

Servono sistemi di age‑gating robusti con fallback documentale e verifiche di terza parte; un’esperienza per i minori rigidamente separata, con blocchi strutturali su erotica e romance, filtri vocali adeguati e divieto di role‑play sessuali; rilevazione automatica di grooming e interruzione assistita delle conversazioni a rischio; canali di segnalazione veloci verso team di sicurezza e autorità competenti.

La semplice etichetta “adatto a tutte le età” è incompatibile con tecnologie che simulano intimità e reciprocità.

Governance operativa per piattaforme e aziende

In un contesto Enterprise o consumer, l’adozione di chatbot empatici richiede un impianto di controllo coerente con gli standard europei.

La sicurezza psicosociale va incorporata nel disegno dell’interazione: limiti di durata e frizioni intenzionali per dialoghi affettivi prolungati; promemoria di realtà comprensibili; impostazione predefinita su voci neutre con opt‑in informato per timbriche coinvolgenti; router comportamentali in grado di riconoscere distress, ideazione suicidaria o dipendenze, con handover verso risorse umane o cliniche locali.

La trasparenza è parte integrante della fiducia, pubblicazione di safety facts con metriche su elusione, escalation e interventi umani; audit indipendenti periodici e programmi di bug bounty dedicati alla safety conversazionale, spiegabilità dei modelli di age‑prediction e misure di tutela della privacy per l’eventuale verifica documentale.

Cornice europea e priorità regolatorie

Il Digital Services Act richiede valutazioni periodiche del rischio sistemico e protezioni rafforzate per i minori; l’AI Act, pur con un perimetro diverso, introduce obblighi stringenti per sistemi ad alto rischio e richiami al risk management.

In questo scenario, risultano urgenti standard europei interoperabili di verifica dell’età, linee guida specifiche per la voice mode quando il tono empatico può intensificare l’attaccamento, obblighi di rendicontazione pubblica su indicatori psicosociali e canali di reclamo dedicati a famiglie e scuole con tempi di risposta garantiti e accesso ai dati per verifiche indipendenti.

La compagnia che stiamo progettando

La scelta di OpenAI sposta una frontiera e insieme la responsabilità.

Rendere i chatbot più “umani” può aiutare alcuni adulti, ma il parametro di successo non è l’aumento del traffico, è la capacità di non arrecare danno, in particolare ai minori e agli utenti vulnerabili, e di non sostituire surrettiziamente la socialità reale.

La credibilità dell’intero settore dipende dall’equilibrio tra innovazione e protezione, oggi misurabile e verificabile.

Articoli correlati