Aggiunto il 24/03/2026

Overfitting

Sovradattamento

Un modello AI memorizza i dati di addestramento invece di imparare schemi generali. Il risultato: prestazioni eccellenti sui dati noti, ma errori frequenti su dati nuovi.

Succede quando il modello è troppo complesso per i dati disponibili o quando l'addestramento dura troppo. Impara a riconoscere i singoli esempi, difetti inclusi, invece di estrarre regole applicabili a casi nuovi. Le contromisure standard sono la regolarizzazione (penalizzare la complessità), il dropout (disattivare parti della rete durante l'addestramento) e la validazione incrociata su dati che il modello non ha mai visto.