L’intelligenza artificiale è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.

Come tutti sappiamo queste tecnologie stanno sta rivoluzionando il mondo. È per questo motitivo che è estremamente importante regolamentarle. Così, il Parlamento Europeo lo scorso 14 giugno ha approvato una proposta di regolamento che “stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale)”. Lo scopo di questo regolamento è difendersi da tali tecnologie. Infatti le norme seguono un approccio alla stregua della valutazione del rischio stabilendo quindi obblighi e regole per i fornitori e per tutti coloro che impiegano tali sistemi. L’obbiettivo è quindi assicurare che ogni sistema sia sicuro, che rispetti i diritti fondamentali e i valori dell’unione europea.

A tal proposito sono stati valutati diversi approcci ma quello che sembra essere più promettente è la realizzazione di una serie di regole (Cd. Codice di condotta) che valgono per tutti, ed una serie invece di regole applicabili con un approccio proporzionale al rischio. I sistemi di intelligenza artificiale verrano pertanto cataloghi in base a quello che fanno come più o meno rischiosi. Più saranno rischiosi più saranno soggetti ad obblighi. Chi li sviluppa dovrà seguire un codice di condotta ossia una serie di regole basilari che assicurano che non siano perseguiti usi ingannevoli dell’IA. Inoltre, i regolamenti presenti nella legge definiscono il modo in cui devono essere gestiti i dati: la disponibilità della documentazione, la tracciabilità, regole di trasparenza, sovrintendenza di esseri umani, precisione e sicurezza del sistema. Questi i principi cardine della nuova legislazione dell’intelligenza artificiale.

Sono stati definiti 4 livelli di rischio. Alla base vengono individuate le attività meno rischiose come ad esempio l’AI utilizzata nel videogiochi o negli automatismi del software. Poi vi sono le attività con rischio minimo, come ad esempio chatbot, assistenza cliente, generazione automatica di video o immagini, essendo sistemi basati su input volontari viene richiesto all’azienda informazioni chiare e trasparenza. L’utente deve infatti sapere che sta interloquendo con un sistema di AI. Al terzo step ci sono le attività di IA ad alto rischio. Le aziende sono tenute ad implementare i sistemi di sicurezza ottenendo certificazioni e sistemi di controllo. Al vertice vi sono infine le IA inacettbabili. Si intendono inaccettabili e quindi vengono proibite le tecnologie che violano privacy e diritti umani (Ad es. “dark pattern IA” modelli di progettazione ingannevoli, interfacce e percorsi di navigazione progettati per influenzare il comportamento online e che possono ostacolare un’efficace protezione dei dati personali dell’utente).

Gli obblighi più gravosi per le società sono riferiti ai sistema di intelligenza artificiale ad alto rischio. In particolare è richiesta una gestione dei dati precisa, la documentazione tecnica adeguata, massima trasparenza, fornire l’utente di tutte le informazioni d’uso, supervisione continua da parte di umani e massima sicurezza informatica. L’azienda deve inoltre creare un sistema di gestione di rischi nonché creare misure di controllo e mitigazione in caso di necessità.

È inoltre prevista la creazione di un sistema di monitoraggio. Queste informazione che saranno raccolte verrano analizzate e controllate da un’autorità chiamata MSA (Market Surveillance Authority). Ogni nazione dovrà creare o delegare a autorità esistenti per sorvegliare detti sistemi. Detta autorità sarà preposta alla verifica del rispetto delle regole imposte dall’Unione Europea e sarà legittimata a comminare sanzioni sanzioni fino a 30 milioni di euro.