Torna al blog
Prompt Engineering

Come Ridurre le Allucinazioni AI con Prompt Migliori: Guida Pratica

·13 min di lettura
Come Ridurre le Allucinazioni AI con Prompt Migliori: Guida Pratica

Come Ridurre le Allucinazioni AI con Prompt Migliori: Guida Pratica

Un avvocato usa ChatGPT per redigere un atto e cita sei casi legali. Cinque non esistono. Il giudice commina sanzioni. Un ricercatore chiede a Claude di riassumere uno studio, e il riassunto inventa statistiche che non erano nel paper. Un team marketing costruisce un report di segmentazione cliente a partire dall'output di Gemini, poi scopre che tre degli "studi citati" sono fabbricati.

Non sono fallimenti rari. Sono output prevedibili di sistemi addestrati a produrre testo dal suono sicuro, non ad ammettere quello che non sanno. Nel mondo degli LLM, questo difetto ha un nome: allucinazione.

I dati del 2026 fanno riflettere. Sul dataset di valutazione enterprise di Vectara, i tassi di allucinazione sono saliti da 3 a 10 volte rispetto ai benchmark su documenti brevi [1]. GPT-5 segna 1,4% sul benchmark originale di Vectara ma oltre il 10% sul nuovo dataset enterprise [2]. Claude Opus 4.6 sta al 12,2% sullo stesso benchmark più duro [2]. Su SimpleQA, GPT-5 allucina il 47% delle volte senza accesso al web, e scende al 9,6% con l'accesso [2]. Gartner prevede che entro il 2026 oltre il 70% delle iniziative GenAI enterprise richiederà pipeline di retrieval strutturato per mitigare il rischio di allucinazione e compliance [3].

La buona notizia: non puoi eliminare le allucinazioni, ma puoi ridurle del 30-80% con modifiche solo a livello di prompt [3][4]. Questa guida copre le tecniche che spostano davvero l'ago e quelle da evitare.


1. Perché le Allucinazioni Accadono (e Perché i Prompt Contano)

Le allucinazioni arrivano da due cause profonde, e il prompt sta in mezzo a entrambe.

Causa 1: contesto mancante o ambiguo. Il modello riceve una domanda senza abbastanza informazioni per rispondere con accuratezza, quindi genera quello che sembra una risposta plausibile basata sui pattern dei dati di addestramento. Se chiedi "quali sono i ricavi del Q3 di Acme Corp?" senza allegare alcuna fonte, il modello non ha modo di saperlo. O ammette l'incertezza (caso migliore) o inventa un numero che calza col pattern dei report trimestrali (caso peggiore).

Causa 2: obiettivi di training che premiano la sicurezza rispetto alla calibrazione. I ricercatori hanno documentato che training e benchmark attuali premiano spesso il tirare a indovinare con sicurezza, invece dell'incertezza calibrata [4]. I modelli imparano che una risposta sbagliata detta con sicurezza punteggia meglio di un onesto "non lo so". È per questo che Claude 4.1 Opus ha segnato 0% di allucinazione sul benchmark AA-Omniscience, non essendo più intelligente, ma essendo stato addestrato a rifiutare quando è incerto [1].

Il prompt è la tua occasione per sistemare entrambe le cose. Controlli il contesto che il modello vede. Controlli le istruzioni su cosa conta come risposta accettabile. Controlli se "non lo so" è una risposta valida.

Trattare i prompt come un layer di prevenzione delle allucinazioni non è una soft skill. È una riduzione misurabile del rischio più grande che la maggior parte dei team AI affronta.

Due cause profonde delle allucinazioni AI: contesto mancante e obiettivi di training che premiano la sicurezza rispetto alla calibrazione
Due cause profonde delle allucinazioni AI: contesto mancante e obiettivi di training che premiano la sicurezza rispetto alla calibrazione

2. Il Panorama delle Allucinazioni nel 2026: Benchmark per Benchmark

Prima di scegliere una mitigazione, aiuta sapere dove parte la baseline. I benchmark attuali raccontano storie diverse a seconda di cosa misurano.

Vectara Hallucination Leaderboard misura quanto spesso i modelli introducono fatti non presenti in un documento sorgente quando riassumono [1]. Sul dataset originale (documenti brevi):

ModelloTasso di allucinazione
Gemini 2.0 Flash0,7%
GPT-5 models0,8% - 2,0%
Claude Sonnet4,4%
Claude Opus10,1%

Sul nuovo dataset enterprise da 7.700 articoli (diritto, medicina, finanza, tech), i tassi sono saliti 3-10x su tutti i modelli [1]. GPT-5 ha superato il 10%. Claude Opus 4.6 ha toccato il 12,2%. La lezione: modelli che sembrano sicuri sui benchmark crollano su documenti lunghi realistici.

SimpleQA misura l'accuratezza nel rispondere a domande fattuali. GPT-5 senza accesso web allucina il 47% delle volte. Con l'accesso web, il tasso scende al 9,6% [2]. Questa singola variabile è la leva più grande sulle allucinazioni fattuali.

I tuoi prompt possono migliorare. Promptimizer li riscrive e li testa automaticamente.

Prova gratis

AA-Omniscience misura l'allucinazione su domande aperte. Claude 4.1 Opus ha segnato 0% rifiutando di rispondere quando incerto [1]. I modelli addestrati a dire "non lo so" battono i modelli che tirano a indovinare con sicurezza.

Il pattern attraverso tutti e tre i benchmark: contesto e calibrazione contano più della capacità grezza del modello. Il tuo prompt controlla entrambi.


3. Tecniche di Prompting Che Riducono Davvero le Allucinazioni

Non tutte le tecniche funzionano. Alcune peggiorano le cose. Ecco quelle con supporto empirico.

3.1 Ancorare il Modello a una Fonte Specifica

La tecnica con la leva maggiore è anche la più semplice: dai al modello qualcosa da citare. Invece di chiedere "quali sono i ricavi Q3 di Acme?", incolla l'earnings report e chiedi "secondo questo report, quali sono stati i ricavi Q3?".

Aggiungere grounding contestuale riduce le allucinazioni del 30-50% su casi d'uso enterprise [4]. Le organizzazioni che implementano sistemi RAG riportano 70-80% di allucinazioni in meno [3]. La You.com Search API ha ottenuto il 92,46% di accuratezza su SimpleQA contro il 38-40% degli LLM standalone senza retrieval [3].

Pattern di prompt pratico:

Stai rispondendo a una domanda basandoti sul documento allegato.

Istruzioni:
1. Rispondi solo usando informazioni presenti nel documento.
2. Se la risposta non è nel documento, scrivi
   "Non trovato nel documento fornito."
3. Cita il passaggio specifico che supporta la tua risposta.
4. Non aggiungere informazioni dalla tua conoscenza generale.

Documento: [incolla contenuto]

Domanda: [domanda]

Questo prompt codifica tre regole anti-allucinazione: risposta limitata alla fonte, opzione esplicita "non trovato", citazione obbligatoria.

3.2 Chain-of-Verification (CoVe)

CoVe è un pattern di prompting a quattro passi che supera zero-shot, few-shot e chain-of-thought standard sull'accuratezza fattuale [5]. I passi:

  1. Il modello scrive una risposta iniziale in bozza.
  2. Il modello pianifica domande di verifica che servirebbero a fact-check della bozza.
  3. Il modello risponde a ogni domanda di verifica in modo indipendente (senza vedere la bozza).
  4. Il modello genera una risposta finale che riconcilia la bozza con le risposte di verifica.

Prompt esempio:

Rispondi alla seguente domanda in tre passi:

Passo 1: Scrivi la tua risposta iniziale.
Passo 2: Genera 3 domande di verifica che potresti fare per fact-check
         della tua risposta.
Passo 3: Rispondi a ogni domanda di verifica in modo indipendente.
         Poi revisiona la tua risposta iniziale in base a eventuali
         discrepanze.

Domanda: [domanda]

Restituisci tutti e tre i passi nella tua risposta.

CoVe aggiunge latenza e costo di token, ma su task in cui l'accuratezza conta (legale, medico, finanziario) il trade-off vale la pena.

3.3 Il Pattern del Rifiuto

L'insight dal Claude 4.1 Opus che tocca 0% su AA-Omniscience è che un permesso esplicito di rifiutare è una tecnica di prompting [1].

La maggior parte dei modelli è stata addestrata a produrre risposte. Per ridurre l'allucinazione, devi autorizzarli esplicitamente a dire "non lo so".

Se non sei sicuro della tua risposta sulla base delle informazioni
fornite, rispondi con "Non posso rispondere con sicurezza."
Non tirare a indovinare. Non fabbricare fonti.

Questa riga aggiunta a un system prompt riduce in modo affidabile citazioni inventate e fatti fabbricati. Il trade-off è che vedrai più rifiuti, che di solito è una feature, non un bug.

3.4 Accesso Web Quando Disponibile

Se il tuo modello ha web search e il tuo task è fattuale, abilitalo. Per GPT-5 su SimpleQA, l'accesso web ha tagliato le allucinazioni dal 47% al 9,6%, una riduzione di 5x [2]. Per informazioni correnti (news, prezzi, eventi recenti), nessuna tecnica di prompting sostituisce l'accesso a fonti fresche.

Pattern di prompt:

Per ogni affermazione fattuale che fai, cerca sul web una fonte
corrente e citala. Se un'affermazione non può essere verificata da una
fonte linkabile, marcala come "non verificata" e non presentarla come
fatto.

3.5 Output Strutturato con Campi Obbligatori

Le allucinazioni prosperano nella prosa libera. Output strutturato con campi obbligatori costringe il modello a riempire slot specifici e segnala le informazioni mancanti in modo esplicito.

Le tecniche che stai leggendo funzionano. Testa subito i tuoi prompt con Prompt Score e vedi il punteggio in tempo reale.

Testa i tuoi prompt

Confronta:

Male: "Riassumi le qualifiche del candidato."
Bene: Restituisci JSON con i campi:
      {
        "anni_esperienza": number | "non specificato",
        "lauree": [string] | "non specificato",
        "certificazioni": [string] | "non specificato",
        "skill_rilevanti": [string],
        "lacune_nel_cv": [string]
      }

La versione strutturata rende "non specificato" un'opzione di prima classe. Un prompt a prosa libera potrebbe produrre dettagli sicuri ma inventati; un prompt strutturato fa emergere le lacune.

Cinque tecniche di prompting per ridurre le allucinazioni: grounding, verifica, rifiuto, web search, output strutturato
Cinque tecniche di prompting per ridurre le allucinazioni: grounding, verifica, rifiuto, web search, output strutturato

4. Tecniche da Evitare o Usare con Cautela

Alcune tecniche ampiamente raccomandate non funzionano come promesso, o funzionano solo in contesti ristretti.

4.1 Chain-of-Thought su Task Complessi

Il chain-of-thought standard ("pensa passo passo") è spesso trattato come miglioramento universale. Non lo è. Ricerche pubblicate nel 2025 mostrano che il chain-of-thought aumenta le allucinazioni fino al 12% su task complessi [4].

CoT aiuta col ragionamento logico e l'aritmetica multi-step. Danneggia su domande fattuali aperte, dove tracce di ragionamento più lunghe danno al modello più opportunità di fabbricare "evidenza" di supporto. Usa CoT quando il task è genuinamente logico; saltalo quando il rischio è di fatti inventati.

4.2 "Sii Accurato" come Istruzione

Dire al modello "sii accurato" o "non inventare" non ha effetti misurabili. Queste istruzioni non cambiano la distribuzione di output del modello. La tendenza del modello ad allucinare è una proprietà strutturale, non una proprietà di compliance.

Cosa funziona invece: specificare il meccanismo concreto (grounding, citazione, opzione di rifiuto, campi strutturati). Istruzioni vaghe sulla qualità vengono ignorate.

4.3 System Prompt Lunghi e Dispersivi

Più lungo non è meglio. Un system prompt che elenca 40 regole è più difficile da seguire per il modello di uno che ne elenca 5 critiche. L'evidenza dal comportamento "instruction following più letterale" di Opus 4.7 suggerisce che il modello segue regole specifiche e non ambigue, e va alla deriva quando gli si chiede di bilanciare molte direttive in competizione.

Taglia il system prompt alle poche regole che contano di più per il tuo caso d'uso. Tre regole anti-allucinazione ben scelte battono dieci regole generiche.


5. Come la Qualità del Prompt si Mappa sul Rischio di Allucinazione

I prompt non sono uniformemente buoni o cattivi. Alcuni sono strutturalmente inclini alle allucinazioni, altri strutturalmente resistenti. Un framework utile valuta i prompt su sei criteri, e ognuno si mappa su un rischio specifico di allucinazione.

Specificità. I prompt vaghi lasciano spazio al modello per inventare. "Scrivi sulla regolamentazione AI" invita alla fabbricazione; "Scrivi un riassunto di 300 parole dell'EU AI Act basato sul testo allegato" no.

Contesto. Contesto mancante costringe il modello a indovinare. Un prompt che include il documento sorgente, il background rilevante e il pubblico produce output ancorato.

Struttura. Prompt senza sezioni chiare (system, dati, domanda) lasciano che il modello confonda istruzioni affidabili con contenuti non affidabili. I prompt strutturati impongono separazione.

Vincoli. Vincoli espliciti riducono lo spazio delle soluzioni. "Rispondi solo usando informazioni dal documento" è un vincolo; "sii accurato" no.

Ruolo. Un ruolo definito attiva norme specifiche del dominio. Un prompt che stabilisce "Sei un analista finanziario che cita solo il 10-K allegato" tira il modello verso un comportamento da analista finanziario (citazione, precisione, quantificazione).

Formato di output. Output strutturato costringe a gestire esplicitamente le informazioni mancanti. Output a forma libera lascia che il modello smussi le lacune con dettagli inventati.

Ognuno dei sei criteri si mappa su un meccanismo di prevenzione delle allucinazioni. Un prompt con buon punteggio non è solo più chiaro, è strutturalmente meno incline a produrre allucinazioni. È il principio dietro Keep My Prompts, che valuta i prompt esattamente su queste sei dimensioni e fa emergere le debolezze prima che vadano in produzione. Il Promptimizer poi riscrive i prompt deboli per alzare il punteggio, con un quality gate che rifiuta le varianti che non migliorano l'originale.

Se spedisci prompt in produzione, valutarli in modo sistematico è la differenza tra "speriamo che sia accurato" e "sappiamo dove sono i nostri rischi".


6. Una Checklist Anti-Allucinazione Pratica

Esegui questa lista per ogni prompt che tocca contenuti fattuali o ad alto rischio.

Grounding della fonte:

  • Il prompt allega il documento o i dati da cui deve arrivare la risposta
  • Il prompt istruisce il modello a rispondere solo dalla fonte fornita
  • Il prompt richiede una citazione o una citazione testuale per ogni affermazione fattuale

Rifiuto come opzione di prima classe:

  • Il prompt permette esplicitamente "non lo so" o "non specificato" come risposte valide
  • Il prompt scoraggia il tirare a indovinare quando l'evidenza manca
  • Il prompt penalizza fonti o citazioni fabbricate

Salvaguardie strutturali:

  • Il formato di output è strutturato (JSON, tabella, campi obbligatori) dove possibile
  • La sezione system separa istruzioni affidabili da dati non affidabili
  • Il prompt è testato contro input avversari progettati per suscitare allucinazioni

Scelte di modello e contesto:

  • Web search abilitato per domande fattuali correnti
  • Modello con calibrazione più forte usato per task ad alto rischio
  • Documenti lunghi gestiti con chunk recuperati via RAG, non scaricati tutti in un prompt

Governance:

  • Prompt sotto controllo di versione così le regressioni possono essere revertite
  • Prompt valutato sui sei criteri (specificità, contesto, struttura, vincoli, ruolo, formato di output)
  • Prompt revisionato prima del deploy in produzione
Checklist anti-allucinazione: cinque livelli dal grounding della fonte alla governance
Checklist anti-allucinazione: cinque livelli dal grounding della fonte alla governance

7. Il Salto: da "AI Accurata" a "AI Calibrata"

La conversazione del 2026 sulle allucinazioni si è spostata oltre "come rendiamo l'AI più accurata?" La risposta onesta è che le architetture attuali produrranno sempre un certo tasso di risposte sbagliate dette con sicurezza, perché sono state addestrate a produrre testo fluente, non a controllarlo.

La domanda migliore è: come costruiamo sistemi AI che sanno quello che sanno?

La calibrazione, non l'accuratezza, è la frontiera. Un modello che ammette incertezza il 20% delle volte su argomenti dove avrebbe torto è molto più utile di un modello che ha ragione il 95% delle volte e sbaglia con sicurezza il 5%, senza segnalare quale è quale. Il secondo modello avvelena ogni decisione a valle; il primo supporta il giudizio umano.

Il prompting è come spingi i modelli verso la calibrazione. Grounding, verifica, permesso di rifiutare, output strutturato: ogni tecnica di questa guida è un modo per chiedere al modello di essere onesto sulla sua incertezza.

I team che spediscono AI in modo responsabile nel 2026 non sono quelli che rincorrono lo 0% di allucinazione. Sono quelli i cui sistemi sanno quando dire "non lo so" e che hanno la prompt governance per tenere stabili queste regole mentre scalano.


Keep My Prompts valuta ogni prompt sui sei criteri di qualità che correlano con il rischio di allucinazione, riscrive i prompt deboli per alzare il punteggio, e versiona la tua libreria così puoi tracciare cosa funziona. Gratis per iniziare, senza carta di credito.


Fonti

[1] Vectara Hallucination Leaderboard, risultati sul dataset enterprise, 2026. https://www.vectara.com/blog/introducing-the-next-generation-of-vectaras-hallucination-leaderboard

[2] AI Hallucination Rates and Benchmarks 2026, report di settore Suprmind. https://suprmind.ai/hub/ai-hallucination-rates-and-benchmarks/

[3] RAG Impact on Enterprise Hallucination Reduction, Techment state of RAG 2026. https://www.techment.com/blogs/rag-in-2026/

[4] Survey and Analysis of Hallucinations in Large Language Models, pubblicazione peer-reviewed PMC, 2025. https://pmc.ncbi.nlm.nih.gov/articles/PMC12518350/

[5] Chain-of-Verification Reduces Hallucination in Large Language Models, arXiv 2309.11495. https://arxiv.org/abs/2309.11495

#allucinazioni AI#prompt engineering#RAG#chain-of-verification#accuratezza LLM#qualità dei prompt

Pronto a organizzare i tuoi prompt?

Inizia gratis, senza carta di credito.

Inizia Gratis

Nessuna carta di credito richiesta