BRUXELLES – Di oltre 100 sistemi di intelligenza artificiale (AI) analizzati, il 18% è classificato ad alto rischio, il 42% a basso rischio, mentre per il 40% non è chiara la classificazione. A rientrare in quest’ultima categoria, i sistemi AI che ruotano principalmente attorno alle infrastrutture critiche, all’occupazione, alle forze dell’ordine e alla sicurezza dei prodotti. È quanto emerge da uno studio recente di appliedAI, la più grande iniziativa europea per l’applicazione di una tecnologia di intelligenza artificiale affidabile e all’avanguardia.
Obiettivo dello studio è valutare il potenziale impatto delle norme contenute nel regolamento sull’AI proposto dalla Commissione europea nel 2021, classificando il rischio di 106 sistemi di Intelligenza artificiale di diverse funzioni aziendali (marketing, produzione, acquisti, ecc). La normativa prevede delle misure che da un lato puntano a incentivare lo sviluppo delle tecnologie AI, dall’altro tutelano la sicurezza e i diritti umani fondamentali.
Nello specifico, il regolamento adotta un approccio basato sul rischio, assegnando i sistemi di AI a una classe di rischio e richiedendo quelli a rischio elevato di soddisfare requisiti più stringenti. Gli autori del rapporto sottolineano l’importanza di disporre di regole di classificazione chiare nella legge sull’AI per ridurre le ambiguità proteggendo al contempo la salute, la sicurezza e i diritti umani. Classificazioni di rischio poco chiare, avvertono, potrebbero rallentare investimenti e innovazione.