Articolo accademico

Uncertainty-Aware Deep Classifiers Using Generative Models

03 aprile 2020 Murat Sensoy, Lance M. Kaplan, Federico Cerutti, Maryam Saleki

Il lavoro affronta un difetto tipico dei modelli deep: dare risposte molto sicure anche quando l'input non assomiglia davvero ai dati visti in addestramento. Per ridurre questo problema, gli autori combinano classificazione e modelli generativi così da distinguere meglio tra casi conosciuti, casi ambigui e situazioni anomale.

Dal punto di vista cyber, questa capacità è cruciale. Un sistema di rilevazione o classificazione che non riconosce i propri casi limite può essere aggirato più facilmente oppure portare a decisioni sbagliate. L'obiettivo qui è costruire modelli che mostrino i propri dubbi invece di nasconderli dietro risposte apparentemente sicure.