Nell’antica Grecia, l’episteme era conoscenza solida, costruita con prove e metodo. Oggi, nella vita digitale, prende spazio il suo contrario: Epistemia, l’illusione di sapere perché una risposta “suona” giusta. Con Epistemia 2.0, la spinta arriva dall’intelligenza artificiale e dai LLM, capaci di produrre testi puliti, rapidi e spesso convincenti.
Il punto non è solo usare chatbot per orientarsi tra temi complessi. Il nodo è quanto spesso la plausibilità linguistica sostituisca la verifica delle informazioni. Quando l’output non viene controllato, l’illusione di conoscenza regge e può guidare scelte reali: dal lavoro alla salute, fino al voto.
Negli Stati Uniti, l’uso di LLM in processi valutativi sta diventando strutturale: sintesi di notizie, filtri, giudizi e spiegazioni “pronte” per colmare gap di competenze. Ma in questo passaggio, l’affidabilità delle fonti rischia di diventare un effetto di stile, più che un risultato di controllo. È qui che la valutazione credibilità si sposta, lentamente, dal “dimostrare” al “sembrare”.
Un segnale forte arriva anche dalla letteratura scientifica recente: una ricerca pubblicata su PNAS condotta da un gruppo di ricerca italiano capeggiato da Walter Quatrociocchi, analizza come modelli e persone costruiscono giudizi su contenuti e fonti, e perché la convinzione può crescere anche quando la verifica è debole. In controluce, si descrive un cambio di abitudine: delegare non solo il testo, ma il discernimento.
In sintesi
- Epistemia indica una illusione di conoscenza che cresce quando la risposta appare plausibile.
- Epistemia 2.0 nasce dall’uso quotidiano di intelligenza artificiale, LLM e chatbot come scorciatoie cognitive.
- Il rischio centrale non è l’automazione, ma la riduzione della verifica delle informazioni da parte dell’utente.
- L’affidabilità delle fonti può essere confusa con la qualità della scrittura e con la plausibilità linguistica.
- Nei contesti USA, i modelli entrano in filtri e decisioni, rendendo la valutazione credibilità un passaggio “invisibile”.
- La discussione è supportata da evidenze in PNAS, dove si osserva come si formano i giudizi, non solo quanto siano corretti.

Che cos’è Epistemia e perché nasce nell’era degli LLM
Nel lessico di oggi, la definizione di Epistemia descrive un effetto comune: sentirsi informati perché una risposta è chiara, rapida e coerente. Eppure, quel senso di padronanza può nascere senza controllo sul contenuto. In un ambiente saturo di informazione digitale, la forma spesso guida la fiducia più dei fatti.
Questo tema emerge con forza quando entrano in scena LLM e conoscenza. Il testo prodotto può sembrare “giusto” anche quando è solo ben scritto. Il punto non è la malafede della macchina, ma il modo in cui l’utente legge l’output e decide se fermarsi o andare oltre.
Dall’episteme greca all’illusione di conoscenza: quando la plausibilità sostituisce la verità
Nella tradizione greca, episteme indicava una conoscenza solida, legata a ragioni e dimostrazioni. Oggi lo scarto si vede nel confronto verità vs plausibilità: ciò che suona credibile può vincere su ciò che è verificabile. Il linguaggio fluido, da solo, crea una sensazione di certezza.
In questo passaggio, l’illusione non nasce dal dubbio, ma dalla scorrevolezza. Quando la frase è ordinata e il tono è sicuro, la mente tende a ridurre le domande. Epistemia diventa allora un’abitudine: confondere coerenza narrativa con affidabilità.
Perché i modelli linguistici non “verificano”: generano output convincenti, non necessariamente corretti
I modelli linguistici sono addestrati a proseguire testi in modo plausibile. Per questo, possono produrre risposte persuasive anche senza un aggancio diretto a dati controllati. La verifica delle fonti resta un compito esterno, che dipende da contesto, documenti e riscontri.
Nel quotidiano, l’utente vede un paragrafo ben costruito e lo scambia per un riepilogo affidabile. Il rischio cresce quando si salta il passaggio più semplice: chiedere “da dove arriva questa informazione?” e “posso confermarla altrove?”. Qui Epistemia si alimenta di velocità e di fiducia automatica.
Il parallelo con Socrate e i sofisti: persuasione vs conoscenza nell’informazione digitale
Nell’Atene del V secolo, Socrate e sofisti si scontrano su un punto chiave: la persuasione può sembrare sapere, ma non coincide con il vero. Gorgia spinge la provocazione fino al paradosso: anche se qualcosa fosse conoscibile, non sarebbe comunicabile con certezza. Nel presente, l’eco è evidente: un sistema può comunicare con sicurezza, pur senza “conoscere” nel senso umano.
Nell’informazione digitale, la retorica torna centrale: titoli netti, frasi pulite, risposte rapide. La dinamica persuasione vs conoscenza si ripresenta quando lo stile prende il posto del controllo. Per questo, il tema non riguarda solo la tecnologia, ma anche le abitudini di lettura e la disciplina nel verificare.
| Snodo | Quando prevale episteme | Quando cresce Epistemia | Impatto su informazione digitale |
|---|---|---|---|
| Obiettivo del discorso | Chiarezza basata su ragioni e prove | Coerenza che “suona bene” | La credibilità segue il tono, non i riscontri |
| Verità vs plausibilità | Priorità alla conferma e al controllo | Priorità alla scorrevolezza dell’output | Le affermazioni si condividono prima di verificarle |
| LLM e conoscenza | Uso come supporto, con controlli incrociati | Uso come sostituto del giudizio | La risposta diventa “fonte” senza essere fonte |
| Ruolo dell’utente | Domande, confronto, verifica delle fonti | Accettazione rapida di ciò che appare solido | Meno tempo per controllare, più spazio alla persuasione |
| Parallelo classico | Socrate e sofisti separati da metodo e rigore | Gorgia come simbolo del potere del discorso | Stile e retorica guidano fiducia e diffusione |
Come l’intelligenza artificiale costruisce giudizi di affidabilità (e dove può sbagliare)
Nelle redazioni digitali e nei team di policy negli Stati Uniti, i modelli vengono usati come filtro rapido. In pochi secondi producono giudizi di affidabilità su articoli, account e domini. Il punto critico, però, è capire su cosa si reggono davvero queste valutazioni.
Quando l’utente delega la scelta, la credibilità delle fonti diventa un punteggio o un’etichetta. Questa scorciatoia può sembrare neutra, ma cambia le abitudini: si legge meno, si controlla meno, si accetta di più. Qui la fiducia non nasce da una verifica, ma da una sintesi plausibile.
Valutazioni, classificazioni e discernimento delegati all’IA: cosa si sta automatizzando davvero
L’automatizzazione valutazioni copre attività diverse: riassumere, classificare, segnalare rischi, stimare attendibilità. Le valutazioni LLM spesso includono anche motivazioni, scritte con tono sicuro. Così la decisione appare “spiegata”, anche quando il controllo dei fatti non è stato fatto.
In pratica, il modello può sostituire un passaggio umano di triage. Ma il triage non è lo stesso della verifica. La differenza si vede quando servono fonti primarie, date, e passaggi replicabili.
Forma linguistica e affidabilità epistemica: il rischio di confondere stile e sostanza
Una frase scorrevole e coerente può suonare vera, anche se manca un appiglio verificabile. È qui che la forma linguistica può essere scambiata per affidabilità epistemica. Un testo “ben scritto” diventa un indizio, anche quando non dovrebbe.
Nel contesto mediatico statunitense, questo effetto pesa: titoli puliti, tono istituzionale e lessico tecnico possono far alzare il punteggio percepito. Il rischio è che la credibilità delle fonti venga letta come qualità narrativa.
Associazioni lessicali e “priori” statistici: quando l’output è allineato ma il ragionamento diverge
Molti giudizi nascono da associazioni lessicali: parole come “studio”, “ricerca”, “esperti” spingono verso stime positive. Al contrario, termini legati a scandali o complotti possono abbassare il giudizio, anche se il contenuto è più complesso. In sottofondo agiscono prior statistici appresi dai dati: frequenze, contesti tipici, formule ricorrenti.
Per questo emerge una pattern-based approximation: il modello riconosce schemi che assomigliano a quelli affidabili, senza ricostruire il percorso di prova. L’output può risultare allineato al senso comune, ma il ragionamento può divergere dal contesto specifico.
Asimmetrie politiche e bias: effetti sistematici osservati nei processi valutativi
Quando entrano temi sensibili, possono comparire bias politici: non solo nelle risposte, ma anche nelle giustificazioni. Le asimmetrie politiche si notano nel modo in cui certe posizioni vengono descritte come “moderate” o “estreme”. Anche la scelta di quali segnali pesano di più può cambiare il risultato.
Questi effetti non richiedono intenzione. Bastano dati sbilanciati, esempi ripetuti e norme implicite nel linguaggio. Il punto, per chi usa questi strumenti, è capire che i giudizi di affidabilità non sono una fotografia dei fatti, ma una stima costruita.
| Passo della valutazione | Cosa tende a fare un valutatore umano | Come spesso operano le valutazioni LLM | Dove può nascere lo scarto |
|---|---|---|---|
| Primo filtro sul contenuto | Controlla data, autore, contesto e conflitti d’interesse | Deduce segnali da stile, struttura e parole chiave | La forma pesa più dei riscontri esterni |
| Stima della credibilità delle fonti | Cerca conferme indipendenti e reputazione verificabile | Associa “autorevolezza” a indicatori linguistici e pattern noti | Associazioni lessicali sostituiscono controlli incrociati |
| Attribuzione di affidabilità epistemica | Valuta se le affermazioni sono controllabili e replicabili | Produce spiegazioni coerenti anche con dati incompleti | Spiegazione fluida scambiata per prova |
| Gestione di temi politici | Esplicita criteri e distingue fatti da interpretazioni | Applica prior statistici su cornici narrative frequenti | Bias politici e asimmetrie politiche nei pesi decisionali |
| Risposta finale e motivazione | Ammette incertezza e indica cosa manca per decidere | Compila una sintesi “chiusa” e ben formata | Pattern-based approximation maschera l’incertezza |
Lo studio su PNAS: confronto tra sei LLM, umani ed esperti
Nel dibattito sull’epistemia, lo studio PNAS LLM usa un banco prova concreto: siti e contenuti di news, trattati come un dominio controllato. L’obiettivo non è “decidere la verità” di un articolo, ma osservare in che modo cambia la valutazione credibilità LLM quando la richiesta è strutturata e comparabile.

Il confronto include sei modelli di ultima generazione, insieme a giudizi umani raccolti in un esperimento guidato. Nel set compaiono anche valutazioni di esperti, usate come riferimento operativo: NewsGuard e Media Bias/Fact Check, spesso indicato anche come MBFC.
Chi ha guidato la ricerca
La ricerca è coordinata da Walter Quattrociocchi, in un contesto accademico preciso: Sapienza Università di Roma. Il lavoro si colloca nel perimetro del Center of Data Science and Complexity for Society, dove si studiano dinamiche informative, segnali sociali e meccanismi di persuasione.
Dentro questa cornice, l’interesse si sposta dai singoli errori ai passaggi che portano a un giudizio. È qui che l’idea di epistemia diventa misurabile: quando la sicurezza del tono sembra sostituire la verifica.
Il metodo a protocollo identico
Il cuore del disegno è un protocollo identico per modelli e partecipanti non esperti. Stessi criteri, stessi contenuti, stessa struttura di valutazione: così le differenze non dipendono dal caso o da istruzioni vaghe.
La procedura richiede selezione dei criteri, recupero degli elementi utili e produzione di una giustificazione. In alcune configurazioni, questa sequenza richiama un agentic framework: un modo per spezzare il compito in passi e rendere visibile cosa viene usato come “prova”.
| Elemento osservato | Con protocollo identico | Senza vincoli comparabili |
|---|---|---|
| Scelta dei criteri | Criteri dichiarati prima della lettura finale, per ridurre cambi a posteriori | Criteri spesso impliciti, variabili e difficili da confrontare |
| Recupero dei contenuti | Passi tracciabili: cosa viene cercato, cosa viene citato, cosa viene ignorato | Ricerca non standardizzata, con motivazioni poco verificabili |
| Giustificazioni | Motivi collegati ai criteri scelti, con struttura ripetibile | Spiegazioni più libere, più esposte a stile e retorica |
| Confronto tra valutatori | Allineamento leggibile tra LLM, umani e benchmark esperti come NewsGuard e MBFC | Confronti parziali, perché cambiano domande e metriche |
Perché non conta solo l’accuratezza finale
Il punto, in questo impianto, non è premiare chi “indovina” di più. Conta capire come il giudizio viene costruito: quali segnali pesano, quali scorciatoie emergono, e quanto la forma linguistica sposti la percezione di affidabilità.
Il confronto con NewsGuard e Media Bias/Fact Check serve proprio a separare il risultato dalla strada percorsa. Una valutazione può sembrare solida, ma poggiare su indizi fragili se la giustificazione segue pattern ripetuti.
Risultati chiave: differenze nei criteri e pattern
Nel confronto tra modelli, persone e benchmark, l’attenzione resta sui criteri osservabili: segnali testuali, coerenza interna, scelta delle fonti citate, e modo in cui vengono pesati. In questa ottica, la valutazione credibilità LLM diventa un processo analizzabile, non una risposta da accettare o respingere.
La stessa impostazione consente di discutere, con un lessico comune, quando la valutazione tende verso approssimazioni basate su pattern. È un passaggio utile per capire come l’epistemia possa nascere anche in output ben scritti, soprattutto quando il ragionamento resta opaco dietro una prosa convincente.
Come reagire all’epistemia: spirito critico, formazione e uso consapevole dei chatbot
Per come evitare epistemia serve una regola semplice: delegare la navigazione solo se si conosce la rotta. In piena “nebbia” informativa, lo spirito critico non è un accessorio, ma un freno di sicurezza. Un chatbot può aiutare, ma non deve diventare l’arbitro della realtà.
Il primo asse è l’alfabetizzazione IA: capire cosa fa davvero un modello e cosa no. La formazione LLM chiarisce che i meccanismi probabilistici LLM producono testi plausibili, non prove. Conoscere i limiti AI aiuta a leggere le risposte come ipotesi, non come sentenze.
Il secondo asse riguarda le competenze sul tema trattato. Senza basi, la verifica delle fonti diventa un gesto vuoto, e il fact-checking si riduce a cercare conferme. L’uso consapevole dei chatbot nasce quando chi legge sa confrontare dati, contesto e definizioni, anche quando l’output sembra pulito e ben scritto.
Nel dibattito pubblico, fake news e deepfake non si disinnescano solo con etichette o filigrane. Si riducono quando le persone rifiutano la “prima risposta” e pretendono riscontri, soprattutto su numeri, citazioni e causalità. La trasformazione del sapere, alla fine, non è solo colpa della macchina: dipende da pratiche quotidiane, individuali e collettive, nel non scambiare plausibilità per verità.
Link Fonte:
E. Loru,J. Nudo,N. Di Marco,A. Santirocchi,R. Atzeni,M. Cinelli,V. Cestari,C. Rossi-Arnaud, & W. 2025. Quattrociocchi, The simulation of judgment in LLMs, Proc. Natl. Acad. Sci. U.S.A. 122 (42)















