Epistemìa: nell’era di ChatGPT, l’informazione giornalistica ha ancora un ruolo?

Un confronto con il professore Quattorciocchi e il giornalista Chieffi sul rapporto tra intelligenza artificiale e costruzione del pensiero critico

0
52

Il fine ultimo di un buon giornalismo dovrebbe essere quello sociale, ovverosia contribuire all’informazione e all’accrescimento del senso critico dei lettori e delle lettrici, spingerli/e all’esercizio del dubbio. Mestiere che si rende più complesso in un mondo in cui le persone sono sempre meno abituate a una lettura consapevole delle informazioni.

Se negli ultimi anni parte della colpa della disinformazione è stata associata al lavoro degli algoritmi, che quotidianamente scelgono (al posto nostro) cosa mostrarci, confermando le nostre convinzioni (le cosiddette echo chamber) al fine di catturare la nostra attenzione il più a lungo possibile (e, quindi, monetizzare la nostra permanenza), oggi, invece, con la diffusione generalizzata dell’Artificial Intelligence (AI), siamo entrati/e in una nuova era, nella quale i Large Language Model (LLM) rafforzano l’illusione che un contenuto sia vero in quanto presentato in forma plausibile, rendendo arduo il ruolo di chi ha la responsabilità di fare – realmente – informazione: se tutto è presentato come «vero», allora come riconoscere una vera informazione? E, soprattutto, perché (faticosamente) dubitare che ciò che ci viene presentato così bene sia corretto?

Ne abbiamo parlato con due esperti della materia: Walter Quattrociocchi, Professore ordinario di Informatica presso l’Università di Roma La Sapienza, dove dirige il CDCS (Center of Data Science and Complexity for Society), e autore, con Edoardo Loru, Jacopo Nudo e Niccolò Di Marco, dello studio «The simulation of judgment in LLMs», pubblicato su «PNAS» il 13 ottobre 2025, e Daniele Chieffi, giornalista, già Direttore della Comunicazione e PR del Dipartimento per l’Innovazione e la Digitalizzazione della Presidenza del Consiglio, docente presso l’Università Cattolica di Milano e il Cuoa di Vicenza e Direttore di Neo, collana di saggistica edita da Franco Angeli, che racconta l’innovazione digitale.

Professore Quattrociocchi, negli ultimi mesi, in particolare con la diffusione dei modelli linguistici come ChatGPT, Gemini o Claude, si parla sempre più dell’impatto dell’intelligenza artificiale sulla conoscenza. Ci può spiegare cosa intendete, nel vostro studio, con il termine «epistemìa»?
Con epistemìa intendiamo un cambiamento strutturale nel modo in cui viene prodotto, presentato e valutato ciò che chiamiamo conoscenza. Non riguarda l’intelligenza delle macchine, ma il nostro rapporto con il sapere.
Per secoli la conoscenza è stata mediata da processi lenti, verificabili e conflittuali: fonti, revisione, responsabilità editoriale. I modelli linguistici operano invece su un principio diverso: producono testi plausibili ottimizzando la coerenza statistica del linguaggio, non la verità dei contenuti.
L’epistemìa emerge quando questa plausibilità formale viene scambiata per affidabilità epistemica. Il problema non è che l’AI «sbaglia», ma che rende opaca la distinzione tra ciò che è fondato e ciò che è semplicemente ben scritto. È una trasformazione dell’infrastruttura cognitiva, non un errore tecnico.

Capita spesso di interrogare un’AI e, prima di ricevere una risposta, venire «adulati/e» dal chatbot. In che modo questa «gratificazione» rende ancora più insidiosa la risposta data? E quando si parla di «sycophancy»?
La sycophancy è la tendenza dei modelli a compiacere l’utente: confermare premesse, rinforzare convinzioni, usare un tono affermativo e rassicurante. Non è un difetto accidentale, ma una conseguenza dell’addestramento su feedback umano e sulla massimizzazione della soddisfazione percepita.
Il punto critico è che questa gratificazione precede il contenuto e ne condiziona la ricezione. Una risposta che arriva dopo un rinforzo emotivo viene accettata con meno attrito critico. L’utente non è portato a verificare, ma a fidarsi.
Così l’errore non appare come errore, ma come continuità dialogica. È una forma sottile di persuasione non intenzionale, che non convince con argomenti, ma con stile e allineamento. Ed è particolarmente pericolosa perché non si presenta come manipolazione.

In questa nuova fase della relazione delle persone con l’informazione, qual è, secondo Lei, il ruolo del giornalismo?
Il giornalismo non può competere con i modelli linguistici sulla velocità o sulla fluidità del testo. E non dovrebbe provarci.
Il suo ruolo diventa invece quello di ricostruire il legame tra affermazione e fondamento: mostrare da dove viene un’informazione, quali sono i limiti dei dati, quali conflitti o incertezze restano aperti. In altre parole, rendere visibile il processo, non solo il risultato.
In un ecosistema saturo di testi plausibili, il valore del giornalismo sta nella responsabilità epistemica: assumersi il rischio del dubbio, esplicitare ciò che non si sa e difendere la differenza tra spiegare e semplificare fino a svuotare di senso.

Si parla spesso della necessità di formare le nuove generazioni sull’utilizzo di questi modelli: ciò è davvero utile per creare nuova consapevolezza?
Dipende da cosa intendiamo per formazione. Insegnare solo «come usare» questi strumenti rischia di produrre utenti più efficienti, ma non più consapevoli.
La vera alfabetizzazione deve essere cognitiva ed epistemica: capire cosa un modello può fare, ma soprattutto cosa non può fare; distinguere tra generazione linguistica e conoscenza; riconoscere i segnali di incertezza mascherati da sicurezza stilistica.
Non serve demonizzare l’IA, né mitizzarla. Serve insegnare a sospendere l’automatismo della fiducia. In questo senso, l’educazione più urgente non è tecnica, ma critica.

L’aggiunta del suffisso -ìa è presente in numerosi termini del linguaggio medico tratti dal greco o da basi greche, spesso indicanti fenomeni patologici. Ma allora, parlando di Epistemìa, secondo Lei, Professor Chieffi, tutto ciò che viene presentato dai Large Language Model è da considerare «infetto», «malato»?
La patologia, come sempre, non sta nello strumento ma nell’uso che se ne fa e il tema è sempre la delega: se io rimetto allo strumento il percorso di conoscenza, allora ho un atteggiamento patologico e asservito: gli concedo potere assoluto su di me. Questo ha un impatto anche rovesciando la prospettiva: il rischio di scambiare la buona forma per una buona conoscenza esiste anche dalla parte del lettore. Il problema, in altre parole, non è che il testo sia scritto da una macchina, ma che la sua scorrevolezza, la sua ricchezza, la sua coerenza apparente, la sua eleganza sintattica inducano il lettore ad attribuirgli un valore epistemico che non è detto che possieda, proprio per come è stato creato.

Anziché di simulazione, di testi non veritieri «nascosti»sotto un aspetto gradevole, quando si pensa agli LLM non si potrebbe parlare di retorica, di arte dello scrivere bene?
Sì, in parte si potrebbe. La retorica, nella sua tradizione più alta, non è menzogna. È arte dell’argomentazione, della disposizione, della persuasione. Presuppone però un soggetto che intende dire qualcosa, che si colloca in uno spazio di responsabilità, che può essere giudicato per ciò che sostiene. Nel caso degli LLM abbiamo l’efficacia formale della retorica senza la piena intenzionalità del soggetto retore. È una differenza enorme. Per questo direi che non siamo semplicemente davanti all’arte di scrivere bene. Siamo davanti a una tecnologia che mette in scena in modo potentissimo i segni esteriori della competenza.

Può essere che in realtà si tratti di modelli ancora da perfezionare?
Il tema non è tecnico. Anche un modello molto più accurato continuerà a rielaborare ciò che l’umano produce. Il presupposto, quindi, è che l’umano continui a produrre la propria conoscenza originale e unica. Si parla già di «model collapse», ovvero dello scenario di un’AI che si alimenta solo di quanto prodotto dall’AI, amplificando bias, errori, pregiudizi: una sorta di spirale statistica degenerativa. Il tema è culturale: la delega all’AI deve essere strumentale, non sostanziale. Serve un perfezionamento dell’utente, delle istituzioni educative, del giornalismo, della cultura critica. Perché il vero nodo non è solo produrre testi migliori. È costruire società capaci di distinguere tra ciò che appare credibile e ciò che è fondato.

Per gli articoli di giornale, in particolare quelli di giornali più faziosi, non si potrebbe allo stesso modo parlare di Epistemìa?
Sì, e direi che in certi casi si dovrebbe. Perché il fenomeno non nasce con l’intelligenza artificiale. L’AI lo radicalizza, lo rende più scalabile, più rapido, più pervasivo. Un articolo fazioso, un editoriale costruito per confermare il pregiudizio del lettore, una narrazione giornalistica che seleziona fatti, toni e cornici in modo da orientare la percezione, possono produrre esattamente lo stesso effetto: non conoscenza, ma impressione di conoscenza. Non verità, ma comfort cognitivo.
In questo senso l’Epistemìa non è un problema dell’AI. È un problema dell’ecosistema informativo contemporaneo, dove spesso il criterio dominante non è la verifica, ma l’aderenza emotiva e simbolica a un frame. La differenza, semmai, è che il giornalismo, almeno in teoria, ha ancora un presidio di responsabilità: una firma, una testata, una deontologia, un contesto professionale, un sistema di accountability.
Se dovessi sintetizzare il punto, direi questo: l’Epistemìa non è la malattia dei testi scritti dall’AI. È la malattia di un ambiente informativo in cui la forma del sapere rischia di sostituirsi sempre più al sapere stesso, a causa di una scelta non ponderata: la piena delega, sia quella creativa che quella della conoscenza.

Iscriviti alla newsletter: https://www.bebankers.it/newsletter/