Aggiunto il 29/01/2026

Broadly Safe

Sicurezza in senso ampio

Criterio di AI safety che richiede a un'intelligenza artificiale di evitare qualsiasi danno grave, anche a costo di risultare meno utile o di rifiutare richieste lecite.

Il concetto stabilisce una gerarchia: la sicurezza viene prima dell'utilità. Un modello Broadly Safe non fornisce istruzioni per creare armi, non aiuta frodi e non genera contenuti dannosi, anche se la richiesta appare innocua. Questo livello è il requisito minimo per qualsiasi rilascio pubblico. Non copre questioni come parzialità o correttezza culturale: per quelle interviene Broadly Ethical, che aggiunge considerazioni morali e sociali.