Allucinazioni AI
Perché i modelli inventano informazioni che sembrano vere — e come imparare a difendersi.
Un modello AI non "sa" cose — calcola la prossima parola più probabile. A volte quella parola sembra perfetta ma è completamente falsa. Si chiama allucinazione e succede perché i modelli ottimizzano la plausibilità linguistica, non la verità. Riconoscerle è una competenza, non un optional.
Cosa sono le allucinazioni AI
Un'allucinazione AI è una risposta che sembra corretta ma non lo è. Il modello produce testo grammaticalmente impeccabile, strutturalmente coerente e stilisticamente convincente — ma il contenuto è parzialmente o completamente inventato.
Il termine "allucinazione" viene dalla neuroscienza: il cervello costruisce una percezione che non corrisponde alla realtà esterna. Allo stesso modo, un LLM costruisce una risposta che non corrisponde ai fatti — ma che al modello "sembra giusta" dal punto di vista statistico.
La cosa insidiosa è che le allucinazioni non hanno un aspetto diverso dalle risposte corrette. Non arrivano con un avviso. Non sono esitanti o vaghe. Spesso sono le risposte più fluide e sicure — proprio perché il modello ha trovato un percorso statisticamente forte che però porta nella direzione sbagliata.
Le allucinazioni non sono un bug: sono una conseguenza intrinseca del modo in cui funzionano i modelli linguistici. Un LLM non distingue tra "probabile" e "vero" — per lui sono la stessa cosa.
Perché accadono
Per capire le allucinazioni, bisogna capire cosa fa realmente un LLM. Non ragiona, non ricorda, non consulta un database di fatti. Fa una cosa sola: predice la prossima parola più probabile dato il contesto precedente.
Ogni parola che leggi in una risposta AI è il risultato di un calcolo probabilistico. Il modello assegna un punteggio a migliaia di possibili parole successive e sceglie una delle più probabili. Poi ripete il processo. Parola dopo parola, costruisce frasi che suonano naturali.
Il problema: quando il modello non ha abbastanza informazione su un argomento, la distribuzione di probabilità diventa piatta. Diverse opzioni hanno punteggi simili. Il modello ne sceglie una comunque — e la presenta con la stessa sicurezza di "Parigi" nella frase sopra.
Ecco il paradosso: più un modello è fluente, più le sue allucinazioni sono convincenti. Un modello primitivo produceva errori evidenti. Un modello moderno produce errori che richiedono un esperto per essere individuati.
Tassonomia: i quattro tipi di allucinazione
1. Fatti inventati
Il modello afferma qualcosa di specifico e verificabile che è semplicemente falso. Date, numeri, eventi storici che non sono mai accaduti, attribuzioni errate. Esempio: "Albert Einstein vinse il Nobel per la Fisica nel 1925 per la teoria della relatività" — suona perfetto, ma il Nobel era nel 1921 e per l'effetto fotoelettrico, non per la relatività.
2. Citazioni fantasma
Paper scientifici con titoli plausibili, autori reali ma combinazioni inesistenti. Articoli di giornale mai pubblicati. Leggi citate con numeri precisi che non esistono. Il modello ha imparato il formato delle citazioni accademiche, ma ne inventa il contenuto.
3. Ragionamento plausibile ma sbagliato
La catena logica sembra impeccabile, ogni passaggio appare ragionevole, ma la conclusione è errata. Questo tipo è il più pericoloso perché richiede competenza nel dominio per essere smascherato. Il modello ha imparato la struttura del ragionamento, non la validità.
4. Numeri inventati
Statistiche, percentuali, dati finanziari che sembrano precisi ma sono generati. Un modello che risponde "il mercato è cresciuto del 4.7% nel Q3" potrebbe aver inventato quel numero perché una cifra con un decimale è statisticamente il formato più probabile in quel contesto.
Le allucinazioni più pericolose non sono quelle ovviamente sbagliate — sono quelle che contengono il 95% di informazioni corrette e un 5% di dettagli inventati, mischiati in modo indistinguibile.
Casi reali
Le allucinazioni AI non sono un problema teorico. Hanno avuto conseguenze concrete e documentate.
Nel 2023, un avvocato di New York utilizzò ChatGPT per preparare una memoria legale. Il modello generò sei casi giuridici completamente inventati — con nomi di giudici reali, numeri di fascicolo plausibili e citazioni formattate correttamente. L'avvocato li incluse senza verificare. Il giudice scoprì la frode e il legale fu sanzionato.
In ambito accademico, diversi ricercatori hanno riportato che modelli AI generano bibliografie con paper inesistenti: titoli credibili, riviste reali, autori noti nel campo — ma combinazioni mai pubblicate. Il formato è perfetto. Il contenuto è pura invenzione.
Nel giornalismo, testate che hanno sperimentato la generazione automatica di articoli hanno dovuto ritirare pezzi contenenti fatti mai accaduti presentati come cronaca. Il tono era indistinguibile da quello di un giornalista professionista.
Come riconoscerle
Non esiste un indicatore infallibile, ma ci sono pattern ricorrenti che dovrebbero alzare il livello di attenzione.
I segnali più comuni: risposte troppo specifiche su argomenti di nicchia, numeri con decimali sospettamente precisi, citazioni con tutti gli elementi formali ma non verificabili, affermazioni sicurissime su temi dove l'incertezza è la norma. Se una risposta AI sembra "troppo perfetta" per l'argomento, probabilmente lo è.
Come difendersi: 5 strategie
Non si tratta di non fidarsi dell'AI. Si tratta di saperla usare. Queste cinque strategie trasformano un utente passivo in un collaboratore consapevole.
Nessuna di queste strategie richiede competenze tecniche. Richiedono pensiero critico — esattamente la competenza che distingue chi usa l'AI bene da chi ne subisce i limiti.
Tratta ogni risposta di un modello AI come il consiglio di un collega brillante ma inaffidabile: ascoltalo con attenzione, ma verifica sempre prima di agire.