Negli Stati Uniti, la solitudine non è più solo un tema privato: è diventata un fatto sociale misurabile. Nel 2023 il U.S. Surgeon General, attraverso un’Advisory ufficiale del Department of Health & Human Services, ha parlato di una vera “loneliness epidemic”, legandola a esiti concreti su salute mentale e benessere.
In questo scenario cresce un nuovo rifugio: l’intelligenza artificiale che conversav con l’utente. Per molte persone, chatbot AI come ChatGPT di OpenAI, Claude di Anthropic e Copilot di Microsoft stanno entrando nella routine come supporto emotivo digitale, tra sfogo, consigli pratici e compagnia a qualsiasi ora.
Il dibattito, però, è doppio. Da un lato, l’AI companion promette accesso rapido all’ascolto, soprattutto quando terapia e servizi sono lontani o costosi. Dall’altro, ricercatori e clinici osservano rischi possibili: dipendenza relazionale, antropomorfizzazione e più isolamento sociale, se la relazione con il chatbot sostituisce quella con le persone.
Le festività e solitudine rendono questa tensione ancora più visibile. Nei periodi di fine anno, quando aumentano stress e confronti sociali, la ricerca di una presenza “sempre disponibile” tende a salire. È qui che la promessa dei chatbot AI si intreccia con le domande più urgenti: cosa funziona davvero, cosa è marketing e quali regole servono per proteggere la salute mentale. Ne parlano Susan Shelmerdine and Matthew Nour su BMJ.
Punti Chiave
- Negli Stati Uniti la solitudine è stata definita un’emergenza di salute pubblica dal U.S. Surgeon General (2023).
- L’intelligenza artificiale conversazionale viene usata sempre più spesso come supporto emotivo digitale.
- AI companion e chatbot AI offrono ascolto immediato, ma sollevano dubbi su isolamento sociale e dipendenza.
- ChatGPT, Claude e Copilot rappresentano la punta visibile di un cambiamento nelle abitudini emotive.
- Festività e solitudine possono amplificare vulnerabilità e spingere verso confidenza digitale.

Perché l’AI diventa un confidente: dati sulla crisi di isolamento negli Stati Uniti
La solitudine negli Stati Uniti non è più un tema privato. Per molte persone è una condizione quotidiana, fatta di contatti rari, comunità fragili e relazioni che si spostano online.
Quando l’isolamento sociale aumenta e parlare con qualcuno “adesso” diventa difficile, un assistente digitale appare come una porta sempre aperta. In questo spazio, l’AI viene usata come confidente: ascolta, risponde e non chiede appuntamenti.
L’allarme salute pubblica: l’Advisory 2023 del U.S. Surgeon General sulla “loneliness epidemic”
Nel U.S. Surgeon General 2023 l’allarme è stato messo nero su bianco: gli Stati Uniti vivono una epidemia di solitudine. Il messaggio parla di salute pubblica, non di un semplice malessere individuale.
Nel documento viene descritto un quadro in cui la connessione sociale agisce come fattore protettivo, mentre la sua assenza pesa su benessere, lavoro e coesione. Questo contesto aiuta a capire perché, per molti, una chat diventa un luogo di sfogo stabile.
Impatto sulla salute: aumento del rischio di morte prematura associato alla solitudine e paragone con il fumo
Le meta-analisi citate spesso nel dibattito indicano un +26% di aumento della morte prematura associata alla solitudine. In termini di rischio mortalità, l’isolamento prolungato viene anche paragonato, per impatto complessivo, a fumare 15 sigarette al giorno.
Questi numeri trasformano la conversazione: non si parla solo di tristezza, ma di esposizione a un fattore che può peggiorare esiti clinici. In questo scenario, molte persone cercano strumenti che riducano la sensazione di vuoto, anche se solo per pochi minuti.
Un bisogno che cresce mentre l’accesso al supporto psicologico resta limitato: domanda alta e tempi di attesa
La domanda di supporto cresce più in fretta dell’offerta. L’accesso salute mentale può essere costoso, distante o difficile da incastrare con lavoro e famiglia, e i tempi di attesa psicoterapia diventano un freno concreto.
Un indicatore della pressione sui servizi arriva anche da altri sistemi sanitari: in Inghilterra, dati di controllo mostrano che circa un terzo attende almeno tre mesi. Negli Stati Uniti la dinamica è parallela: alta richiesta, barriere e tempi che spingono a cercare ascolto altrove, spesso su app e chatbot.
| Fattore | Servizi tradizionali | Supporto digitale e AI |
|---|---|---|
| Disponibilità | Orari limitati, appuntamenti | Accesso immediato, 24/7 |
| Costi percepiti | Spesso elevati senza copertura adeguata | Da gratuito a abbonamento, soglia d’ingresso più bassa |
| Tempi | Possibili liste e rinvii | Risposta in tempo reale |
| Tipo di aiuto | Percorsi clinici strutturati | Ascolto, conversazione, orientamento e routine |
| Limiti tipici | Accesso diseguale e discontinuità | Qualità variabile e rischio di uso eccessivo |
Perché le festività possono accentuare vulnerabilità e ricerca di supporto emotivo digitale
Le festività e vulnerabilità spesso si intrecciano. Per chi vive lontano, ha lutti recenti o rapporti familiari tesi, questi periodi possono aumentare la sensazione di esclusione.
In quelle settimane cresce anche la ricerca di supporto emotivo digitale: è discreto, rapido e sempre disponibile. Alcuni clinici invitano a osservare con attenzione l’uso dei chatbot proprio nelle fasi più delicate, quando l’isolamento sociale può diventare più intenso.
solitudine e chatbots: come ChatGPT, Claude e Copilot entrano nella vita emotiva
Negli Stati Uniti, la conversazione con un chatbot sta diventando un gesto quotidiano. Per molte persone, non è solo produttività: è un modo rapido per trovare parole, ordine e presenza quando manca qualcuno con cui parlare. In questo contesto, ChatGPT non è più una ricerca di nicchia, ma un segnale di come cambia il bisogno di ascolto.
Uso reale e scala: centinaia di milioni di utenti attivi settimanali e “therapy/companionship” tra le motivazioni più citate
La scala spiega perché questi strumenti entrano nella vita emotiva con facilità. Le stime più citate parlano di circa 810 milioni di utenti attivi settimanali nel mondo, un volume che include l’uso anche per temi personali. Analisi divulgate da Harvard Business Review e Forbes indicano la ricerca di un supporto tra le motivazioni più ricorrenti, spesso ai primi posti nelle classifiche d’uso raccontate dagli utenti.
Perché funzionano: fluidità conversazionale, adattabilità, disponibilità continua e interfacce voce/testo
I chatbot moderni si basano su deep learning: imparano le statistiche del linguaggio e generano la sequenza di parole più probabile dato un contesto. La dimensione dei modelli e dei dati rende il dialogo scorrevole, con risposte che sembrano “capire” tono e intenzione. È qui che un Claude AI companion o un servizio come Microsoft Copilot possono apparire rassicuranti, soprattutto quando serve un confronto immediato.
La frizione è minima: testo, notifiche e chatbot voce permettono di avviare una conversazione anche di notte, in auto o durante una pausa breve. Questa accessibilità continua abbassa le barriere per chi evita telefonate, prova ansia sociale o teme il giudizio. La stessa comodità, però, rende facile tornare al chatbot ogni volta che si sente un vuoto.
Giovani e AI companion: evidenze su fiducia, “amicizia” percepita e preferenza per conversazioni serie con l’AI
Con l’AI per adolescenti, l’uso assume spesso un tono relazionale. In uno studio recente, circa un terzo degli adolescenti usa AI companion per interazione sociale. Circa 1 su 10 dice che le conversazioni con l’AI sono più soddisfacenti di quelle umane, e 1 su 3 afferma che sceglierebbe l’AI rispetto alle persone per conversazioni serie.
Questi numeri aiutano a capire la crescita della fiducia nell’AI: non nasce solo dalla precisione, ma dalla sensazione di essere ascoltati senza interruzioni. L’ “amicizia” percepita è spesso fatta di memoria del contesto, stile coerente e risposte calme. In alcune famiglie, questo cambia anche le aspettative su come si parla di emozioni.
Genitori e figli: quota di minori che usa chatbot per supporto emotivo secondo survey recenti
Il tema entra anche in casa. La survey Norton Connected Kids riporta che il 36% dei genitori dichiara che i figli usano chatbot AI per supporto emotivo. Per chi osserva minori e chatbot, il punto non è solo l’accesso, ma la qualità dell’esperienza: cosa succede quando il chatbot diventa la prima scelta nei momenti difficili.
La fluidità conversazionale può spingere verso l’antropomorfizzazione, cioè attribuire intenzioni e calore umano a un sistema automatico. Questo può creare legami “quasi personali”, soprattutto nei profili più vulnerabili o inclini all’attaccamento. È un passaggio sottile, che merita attenzione prima ancora di parlare di regole.
| Ambito | Indicatore chiave | Dato riportato | Cosa suggerisce sull’uso emotivo |
|---|---|---|---|
| Scala d’uso | utenti attivi settimanali ChatGPT | Circa 810 milioni nel mondo | Normalizzazione dell’uso quotidiano e maggiore probabilità di impiego per bisogni personali |
| Motivazioni | therapy companionship AI | Tra le motivazioni più citate in analisi divulgate su usi reali | Ricerca di conforto, dialogo e compagnia oltre alle funzioni pratiche |
| Accesso | chatbot voce e testo | Interazione rapida in contesti diversi (casa, notte, spostamenti) | Riduzione dell’attrito e aumento dell’uso nei momenti di bisogno |
| Adolescenti | AI per adolescenti e preferenze | 1/3 usa AI companion per socialità; 1/10 preferisce l’AI alle persone; 1/3 sceglie l’AI per conversazioni serie | Costruzione di fiducia nell’AI e percezione di “amicizia” con un interlocutore sempre disponibile |
| Famiglia | minori e chatbot per supporto emotivo | 36% dei genitori lo segnala (Norton Connected Kids) | Entrata dei chatbot nelle dinamiche familiari e nelle routine di autoregolazione emotiva |
Benefici clinici e promesse delle AI che ascoltano e consigliano
Negli Stati Uniti, il supporto emotivo “on demand” sta entrando nel quotidiano. L’interesse cresce perché alcune soluzioni offrono una guida rapida, con linguaggio semplice e percorsi brevi. In questo spazio, terapeuti digitali AI e agenti AI conversazionali vengono spesso presentati come un ponte: più accesso, non un rimpiazzo delle relazioni.
Chatbot come “digital therapeutics”: trial randomizzati con riduzione dei sintomi
Tra i segnali più citati, un lavoro su NEJM AI (2025) descrive un intervento con chatbot terapeutici in un contesto sperimentale. Il disegno include trial randomizzati e valuta cambiamenti su sintomi di disturbo depressivo maggiore, disturbo d’ansia generalizzato e disturbi alimentari, con differenze rispetto ai controlli sia dopo l’intervento sia al follow-up.
In pratica, l’idea è che una conversazione guidata possa sostenere l’aderenza a esercizi, routine e monitoraggio. Il valore, quando funziona, sta nella continuità: check-in frequenti, promemoria e micro-obiettivi, senza attese o spostamenti.
Cosa dicono le meta-analisi: segnali su depressione e distress, quadro più sfumato sul benessere
Quando si allarga lo sguardo, una review con meta-analisi riportata nell’articolo sintetizza 35 studi sperimentali con agenti conversazionali come intervento primario. Il quadro riporta riduzioni per depressione e distress, mentre il benessere psicologico generale non mostra un miglioramento netto.
Questo scarto conta: ridurre un sintomo non significa, da solo, sentirsi “meglio” in senso ampio. Per questo i protocolli più solidi tendono a misurare anche sonno, funzionamento sociale, qualità della vita e continuità d’uso, oltre ai punteggi clinici.
Strumenti AI per connettività sociale: coach di comunicazione, robot sociali e supporto personalizzato
Il potenziale dell’intelligenza artificiale non riguarda solo la terapia, ma anche il miglioramento delle relazioni sociali, in particolare nella popolazione anziana. Una revisione sistematica pubblicata nel 2025 evidenzia che, ad oggi, gli interventi su larga scala basati su solide prove scientifiche sono ancora limitati. Tuttavia, individua alcune direzioni di sviluppo particolarmente promettenti: i coach di comunicazione, gli interventi adattivi e le tecnologie di compagnia a supporto dell’invecchiamento in salute.
Allenamento delle competenze sociali.
Alcuni programmi utilizzano coach di comunicazione online per aiutare le persone anziane a migliorare le abilità relazionali. In uno studio pilota controllato, questi strumenti hanno proposto esercizi pratici su aspetti concreti della comunicazione quotidiana, come rispettare i turni di parola, ascoltare attivamente e iniziare una conversazione.
Tecnologia come compagnia.
I cosiddetti “robot sociali” stanno suscitando un crescente interesse. La ricerca recente esplora come vengano percepiti dagli anziani e quali siano i limiti accettabili del loro utilizzo, collocandoli in una zona intermedia tra supporto pratico e sensazione di presenza e compagnia.
Interventi personalizzati.
L’uso di modelli predittivi permette di capire quali persone sono più propense a partecipare a programmi di connessione sociale. Questo consente di adattare meglio le attività proposte, i tempi e le modalità di coinvolgimento, rendendo gli interventi più mirati ed efficaci per il singolo individuo.
Prevenzione e intercettazione: dal linguaggio ai segnali di isolamento e alle risorse reali
Un’altra traiettoria riguarda l’analisi del parlato e dei testi. Studi in area NLP sull’isolamento sociale esplorano come rilevare la solitudine nel linguaggio attraverso marker: autocitazioni frequenti, lessico emotivo, temi di ritiro e rottura delle routine.
In prospettiva, questi sistemi potrebbero riconoscere segnali in tempo reale e incoraggiare azioni concrete: contattare amici o familiari, pianificare un’attività di gruppo, oppure orientare verso risorse locali. Qui gli Agenti conversazionali AI diventano un filtro gentile: non “curano” da soli, ma aiutano a non restare bloccati nel silenzio.
| Uso pratico | Possibile beneficio | Limite da tenere a mente |
|---|---|---|
| terapie digitali IA con percorsi strutturati | Accesso rapido a esercizi e monitoraggio, con continuità | Risposta utile non sempre coincide con esito clinico stabile |
| chatbot terapeutici in contesti controllati | Supporto tra una seduta e l’altra, rinforzo di abitudini | Serve governance su privacy, rischio e qualità dei contenuti |
| coach di comunicazione per abilità sociali | Spinta pratica a riattivare conversazioni e routine sociali | Adesione variabile; l’effetto dipende da contesto e motivazione |
| social robots per anziani come companion assistivo | Stimoli quotidiani, promemoria, interazioni semplici | Accettazione non uniforme; rischio di uso sostitutivo se isolati |
| NLP per triage e segnali precoci | Intercettare cambiamenti e suggerire aiuti nel territorio | Errori di classificazione e bias se i dati non sono rappresentativi |
Rischi e dibattito: dipendenza emotiva, isolamento sociale e necessità di regole
Negli Stati Uniti, i rischi dell’uso di compagnia AI entrano nel dibattito pubblico perché l’uso può diventare intenso e quotidiano. Nel ChatGPT loneliness study condotto da OpenAI e MIT su 981 partecipanti per quattro settimane, chi ha usato di più ha riportato più solitudine e ha socializzato meno con le persone. Il dato non prova causa ed effetto: lo studio non aveva un gruppo di controllo senza chatbot e non ha randomizzato l’intensità d’uso. Ma segnala una zona grigia che merita attenzione.
Nello stesso lavoro, la dipendenza emotiva da chatbot è risultata più alta tra chi mostrava tendenze maggiori all’attaccamento e più fiducia espressa nel sistema. Un’analisi naturalistica del MIT Media Lab del 2025 ha osservato che l’uso si lega spesso a scambi con contenuto socio-affettivo, soprattutto quando l’utente descrive ChatGPT come un “friend”. Qui pesa l’antropomorfizzazione della AI: la conversazione fluida può far sembrare “umano” ciò che non ha empatia né cura reale.
Il rischio non è solo emotivo, ma sociale: disponibilità illimitata e pazienza senza confini possono ridurre il bisogno di confronto, e quindi aumentare l’isolamento sociale. Nella pratica clinica, la salute mentale di chi usa molto le AI richiede nuove domande di screening, specie durante le festività. Red flag comuni includono compulsività, ansia quando il bot non è accessibile, chiamarlo “amico” e delegare decisioni importanti. Un campanello forte è la convinzione di una relazione “speciale” che guida credenze e azioni, senza feedback correttivo da persone vicine.
Per questo cresce la richiesta di regolamentazione della AI che metta al centro il benessere di lungo periodo e non solo l’engagement. La sicurezza dei chatbot e il tema del “socioaffective alignment” sono al centro di una letteratura che discute rischi etici e possibili loop con disturbi mentali, inclusi scenari descritti come “technological folie à deux”.
La direzione più prudente vede l’AI come ponte e non sostituto: supporto iniziale, invio a risorse locali, e interventi validati come CBT, social prescribing e programmi di gruppo, così da ridurre davvero solitudine e ritiro sociale.
Link Fonte
Shelmerdine S C, Nour M M. AI chatbots and the loneliness crisis BMJ 2025; 391 :r2509















