I diversi attori dell’ intelligenza artificiale devono governare e gestire i rischi durante l’intero ciclo di vita dei loro sistemi: dalla pianificazione e progettazione, alla raccolta ed elaborazione dei dati, alla costruzione e validazione dei modelli, all’implementazione, al funzionamento e al monitoraggio. Il report dell’Artificial Intelligence Policy Observatory dell’OECD, “Advancing accountability in AI”: presenta la ricerca e i risultati sulla responsabilità e il rischio nei sistemi di IA, fornendo una panoramica di come i quadri di gestione del rischio e il ciclo di vita del sistema possano promuovere l’IA affidabile; esplora i processi e gli attributi tecnici che possono facilitare l’attuazione dei principi basati sui valori per l’IA affidabile; identifica gli strumenti e i meccanismi per definire, valutare, trattare e governare i rischi in ogni fase del ciclo di vita del sistema di IA