Supporting Trustworthy Artificial Intelligence via Bayesian Argumentation
Questo lavoro propone di usare l'argomentazione bayesiana per costruire sistemi di AI capaci di esporre ragioni, collegamenti tra evidenze e forme di incertezza in modo più strutturato di una semplice previsione numerica.
Per la cybersecurity il valore sta nel fatto che molti sistemi di supporto decisionale devono giustificare le conclusioni su minacce, priorità e rischio residuo. Un impianto argomentativo probabilistico aiuta a passare da un risultato opaco a una spiegazione che può essere discussa, contestata e raffinata.