Aggiunto il 24/03/2026

AI Safety

Sicurezza dell'AI

Campo di ricerca dedicato a garantire che i sistemi di intelligenza artificiale si comportino in modo sicuro, prevedibile e allineato con le intenzioni di chi li progetta.

I rischi studiati vanno dal concreto (un modello che fornisce istruzioni pericolose) al sistemico (un'AI che persegue obiettivi divergenti da quelli assegnati). Le aree principali sono l'alignment (allineare il comportamento ai valori umani), la robustezza (resistenza a manipolazioni) e l'interpretabilità (capire perché il modello decide come decide). Il campo è centrale dopo l'adozione di massa dei LLM nel 2023.