Aggiunto il 29/01/2026

Hallucination

Allucinazione (AI)

Un modello AI genera informazioni false presentandole come vere. L'hallucination nasce dal modo in cui i LLM funzionano: producono il testo più probabile, non il più corretto.

Il modello non consulta fonti né verifica i fatti: seleziona la sequenza di parole più plausibile in base al contesto. Se non ha dati sufficienti, riempie i vuoti con contenuti inventati ma credibili. Il problema è strutturale. Le contromisure principali sono il RAG (collegare il modello a fonti verificate), i guardrail (filtri che bloccano risposte incerte) e la revisione umana sistematica dei risultati generati.