Rapid Trust Calibration through Interpretable and Uncertainty-Aware AI
Il paper parte da un problema concreto: un sistema di AI può essere utile nelle decisioni di sicurezza, ma se non mostra chiaramente dove è incerto e perché propone una certa azione può spingere le persone a fidarsi troppo. Gli autori chiamano questo passaggio rapid trust calibration, cioè la possibilità di capire in fretta quanto fidarsi del sistema in quel momento.
Il punto chiave non è solo spiegare una risposta, ma costruire strumenti che sappiano anche ammettere i propri limiti. In ambito cyber questo è importante quando si devono valutare allerte, indizi e scenari a rischio senza trattare l'AI come un oracolo infallibile.