Napoli – L’intelligenza artificiale entra in una nuova fase di regolamentazione con l’introduzione degli standard internazionali ISO/IEC 42001 e ISO/IEC 42005. Il primo definisce i requisiti per creare un sistema di gestione dell’IA responsabile, garantendo controllo, trasparenza e tracciabilità dei processi automatizzati.
Il secondo, invece, introduce il modello di AI System Impact Assessment, utile per valutare e documentare i rischi connessi ai sistemi di intelligenza artificiale, dalla protezione dei dati alla sicurezza informatica, fino agli impatti etici e sociali.
Di questi temi si è discusso nel convegno ospitato all’Università Suor Orsola Benincasa di Napoli, che ha riunito esperti, professionisti e studiosi per confrontarsi sulle nuove sfide della governance dell’IA.
A spiegarci nel dettaglio come queste norme cambieranno l’approccio delle aziende è il CEO di Certifica, il Dottor Salvatore Scutiero, che abbiamo intervistato per approfondire il significato e le applicazioni concrete di questi standard.
“Oggi abbiamo cercato di fare un focus su tutto ciò che rappresenta l’intelligenza artificiale e sui rischi che può portare. Una maggiore attenzione sull’applicazione di queste tecniche che pervadono la società . Abbiamo cercato di dare una linea guida, delle indicazioni tecniche necessarie per individuare e mitigare i rischi all’applicazione di queste certificazioni”


