Articoli
Articolo

Allucinazioni AI

Perché i modelli inventano informazioni che sembrano vere — e come imparare a difendersi.

12 min 2026 Riccardo Busolo
In breve

Un modello AI non "sa" cose — calcola la prossima parola più probabile. A volte quella parola sembra perfetta ma è completamente falsa. Si chiama allucinazione e succede perché i modelli ottimizzano la plausibilità linguistica, non la verità. Riconoscerle è una competenza, non un optional.

In questo articolo
  1. Cosa sono le allucinazioni AI
  2. Perché accadono
  3. Tassonomia: i quattro tipi
  4. Casi reali
  5. Come riconoscerle
  6. Come difendersi: 5 strategie

Cosa sono le allucinazioni AI

Un'allucinazione AI è una risposta che sembra corretta ma non lo è. Il modello produce testo grammaticalmente impeccabile, strutturalmente coerente e stilisticamente convincente — ma il contenuto è parzialmente o completamente inventato.

Il termine "allucinazione" viene dalla neuroscienza: il cervello costruisce una percezione che non corrisponde alla realtà esterna. Allo stesso modo, un LLM costruisce una risposta che non corrisponde ai fatti — ma che al modello "sembra giusta" dal punto di vista statistico.

La cosa insidiosa è che le allucinazioni non hanno un aspetto diverso dalle risposte corrette. Non arrivano con un avviso. Non sono esitanti o vaghe. Spesso sono le risposte più fluide e sicure — proprio perché il modello ha trovato un percorso statisticamente forte che però porta nella direzione sbagliata.

Punto chiave

Le allucinazioni non sono un bug: sono una conseguenza intrinseca del modo in cui funzionano i modelli linguistici. Un LLM non distingue tra "probabile" e "vero" — per lui sono la stessa cosa.


Perché accadono

Per capire le allucinazioni, bisogna capire cosa fa realmente un LLM. Non ragiona, non ricorda, non consulta un database di fatti. Fa una cosa sola: predice la prossima parola più probabile dato il contesto precedente.

Ogni parola che leggi in una risposta AI è il risultato di un calcolo probabilistico. Il modello assegna un punteggio a migliaia di possibili parole successive e sceglie una delle più probabili. Poi ripete il processo. Parola dopo parola, costruisce frasi che suonano naturali.

Infografica interattiva — Predizione del prossimo token
La capitale della Francia è Parigi
Clicca sulle barre per cambiare la parola scelta →

Il problema: quando il modello non ha abbastanza informazione su un argomento, la distribuzione di probabilità diventa piatta. Diverse opzioni hanno punteggi simili. Il modello ne sceglie una comunque — e la presenta con la stessa sicurezza di "Parigi" nella frase sopra.

Ecco il paradosso: più un modello è fluente, più le sue allucinazioni sono convincenti. Un modello primitivo produceva errori evidenti. Un modello moderno produce errori che richiedono un esperto per essere individuati.


Tassonomia: i quattro tipi di allucinazione

1. Fatti inventati

Il modello afferma qualcosa di specifico e verificabile che è semplicemente falso. Date, numeri, eventi storici che non sono mai accaduti, attribuzioni errate. Esempio: "Albert Einstein vinse il Nobel per la Fisica nel 1925 per la teoria della relatività" — suona perfetto, ma il Nobel era nel 1921 e per l'effetto fotoelettrico, non per la relatività.

2. Citazioni fantasma

Paper scientifici con titoli plausibili, autori reali ma combinazioni inesistenti. Articoli di giornale mai pubblicati. Leggi citate con numeri precisi che non esistono. Il modello ha imparato il formato delle citazioni accademiche, ma ne inventa il contenuto.

3. Ragionamento plausibile ma sbagliato

La catena logica sembra impeccabile, ogni passaggio appare ragionevole, ma la conclusione è errata. Questo tipo è il più pericoloso perché richiede competenza nel dominio per essere smascherato. Il modello ha imparato la struttura del ragionamento, non la validità.

4. Numeri inventati

Statistiche, percentuali, dati finanziari che sembrano precisi ma sono generati. Un modello che risponde "il mercato è cresciuto del 4.7% nel Q3" potrebbe aver inventato quel numero perché una cifra con un decimale è statisticamente il formato più probabile in quel contesto.

Attenzione

Le allucinazioni più pericolose non sono quelle ovviamente sbagliate — sono quelle che contengono il 95% di informazioni corrette e un 5% di dettagli inventati, mischiati in modo indistinguibile.


Casi reali

Le allucinazioni AI non sono un problema teorico. Hanno avuto conseguenze concrete e documentate.

Nel 2023, un avvocato di New York utilizzò ChatGPT per preparare una memoria legale. Il modello generò sei casi giuridici completamente inventati — con nomi di giudici reali, numeri di fascicolo plausibili e citazioni formattate correttamente. L'avvocato li incluse senza verificare. Il giudice scoprì la frode e il legale fu sanzionato.

In ambito accademico, diversi ricercatori hanno riportato che modelli AI generano bibliografie con paper inesistenti: titoli credibili, riviste reali, autori noti nel campo — ma combinazioni mai pubblicate. Il formato è perfetto. Il contenuto è pura invenzione.

Nel giornalismo, testate che hanno sperimentato la generazione automatica di articoli hanno dovuto ritirare pezzi contenenti fatti mai accaduti presentati come cronaca. Il tono era indistinguibile da quello di un giornalista professionista.


Come riconoscerle

Non esiste un indicatore infallibile, ma ci sono pattern ricorrenti che dovrebbero alzare il livello di attenzione.

I segnali più comuni: risposte troppo specifiche su argomenti di nicchia, numeri con decimali sospettamente precisi, citazioni con tutti gli elementi formali ma non verificabili, affermazioni sicurissime su temi dove l'incertezza è la norma. Se una risposta AI sembra "troppo perfetta" per l'argomento, probabilmente lo è.

Quiz interattivo — Allucinazione o no?
Il protocollo HTTP è stato creato da Tim Berners-Lee nel 1991 al CERN di Ginevra.
Reale. Tim Berners-Lee creò effettivamente HTTP al CERN tra il 1989 e il 1991. Tutti i dettagli sono corretti.
Secondo uno studio pubblicato su Nature nel 2022 da Chen et al., il 73.2% delle aziende Fortune 500 utilizza modelli AI proprietari.
🔴 Allucinazione. Citazione fantasma classica: rivista reale (Nature), formato perfetto ("Chen et al."), percentuale sospettamente precisa (73.2%). Lo studio non esiste.
La backpropagation è stata formalizzata nel 1986 da Rumelhart, Hinton e Williams.
Reale. Il paper "Learning representations by back-propagating errors" fu pubblicato nel 1986 su Nature da questi tre autori.
Il ponte di Rialto a Venezia fu progettato dall'architetto Andrea Palladio nel 1588.
🔴 Allucinazione. Il ponte di Rialto fu progettato da Antonio da Ponte, non da Palladio. Palladio partecipò al concorso ma il suo progetto fu scartato. Il modello ha mescolato "architetto veneto famoso" con "ponte veneto famoso".

Come difendersi: 5 strategie

Non si tratta di non fidarsi dell'AI. Si tratta di saperla usare. Queste cinque strategie trasformano un utente passivo in un collaboratore consapevole.

Checklist interattiva — Le 5 difese
Verifica le fonti
Se l'AI cita uno studio, un articolo o un dato — cercalo tu. Se non lo trovi in 30 secondi, probabilmente non esiste.
Chiedi le fonti esplicitamente
Aggiungi "indica le fonti" nella richiesta. Il modello potrebbe comunque inventarle, ma sarà più facile verificare.
Diffida della precisione eccessiva
Numeri con decimali, percentuali specifiche, date esatte su argomenti di nicchia sono spesso segnali di allucinazione.
Testa con domande di controllo
Fai domande di cui conosci la risposta nello stesso dominio. Se il modello sbaglia quelle, probabilmente sbaglia anche le altre.
Non usare l'AI come unica fonte
L'AI è un acceleratore, non un sostituto della verifica. Usala per la bozza, mai per il prodotto finale senza revisione umana.
0 / 5 completate

Nessuna di queste strategie richiede competenze tecniche. Richiedono pensiero critico — esattamente la competenza che distingue chi usa l'AI bene da chi ne subisce i limiti.

La regola d'oro

Tratta ogni risposta di un modello AI come il consiglio di un collega brillante ma inaffidabile: ascoltalo con attenzione, ma verifica sempre prima di agire.

Vuoi formare il tuo team a usare l'AI in modo consapevole?
Nei miei percorsi di formazione insegno a riconoscere i limiti dei modelli e a costruire workflow che minimizzano il rischio di allucinazioni.
Parliamone →