Lo scorso 13 Marzo è entro in vigore il regolamento sull’Intelligenza Artificiale (AI ACT)

Nello scenario europeo tale strumento si pone quale tentativo intrapreso dall’Unione Europea, pioniera in tutto il mondo, di uniformare e regolamentare le nuove tecnologie con l’obiettivo principale di  garantire il rispetto dei diritti fondamenti e della dignità delle persone nello sviluppo e nell’uso delle tecnologie basate sull’intelligenza artificiale.

In particolare, tale regolamento è rivolto a tutti i soggetti pubblici e privati che operano all’interno ed all’esterno dell’UE nell’ipotesi in cui il sistema di AI sia immesso sul mercato europeo ovvero il suo utilizzo riguardi persone situate nel territorio dell’UE. 

Ai sensi dell’art. 85 del Regolamento de quo le disposizioni ivi contenute si applicheranno trascorsi 24 mesi dopo l’entrata in vigore del regolamento stesso sicché, in sostanza, le società coinvolte hanno a disposizione due anni per potersi adeguare per non incorrere in sanzioni.

Il punto cruciale dalla cui individuazione derivano oneri differenti in capo alle società è la considerazione del sistema di intelligenza artificiale ad alto o basso rischio e, conseguentemente, le azioni da porre in essere ad adeguarsi alla normativa.

Infatti, se il sistema di IA è destinato ad essere utilizzato quale componente di sicurezza di un prodotto od è esso stesso un prodotto e in quanto tale soggetto ad una valutazione di conformità da parte di terzi ai fini dell’immissione sul mercato, è considerato ad alto rischio. Sono considerati tali anche quelli elencanti nell’Allegato III ossia ad esempio sistemi di i sistemi di IA destinati a essere utilizzati per l’identificazione biometrica remota “in tempo reale” e “a posteriori” delle persone fisiche oppure i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione del traffico stradale e nella fornitura di acqua, gas, riscaldamento ed elettricità. 

I fornitori di sistemi di IA ad alto rischio dovranno dunque garantire la conformità ai requisiti tecnici specifici indicati dal Regolamento nonché dovranno:

    • indicare informazioni essenziali sul sistema;

    • disporre un sistema di gestione di qualità;

    • elaborare una dichiarazione di conformità UE;

    • adottare misure correttive ove necessario.

Diversamente un sistema IA può essere ritenuto a basso rischio come ad esempio i sistemi di chatbot (es. ChatGPT). In tale ipotesi sono previsti solamente degli obblighi di trasparenza ed informazione.

In caso di utilizzo di cd. Deep Fake, l’art. 52 prevede che gli utenti utilizzatore di IA che “genera o manipola immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona” sono tenuti a rendere esplicito che il contenuto che viene visualizzato è stato generato o manipolato artificialmente.

Certamente l’obiettivo del legislatore europeo è quello di garantire ed assicurare che i sistemi di IA immessi sul mercato siano sicuri e leciti.

Nel contesto sopra descritto tutte le società aventi sede nel territorio europeo hanno 24 mesi per potersi adeguare, in quanto alla scadenza di tale termine, tutte le norme del Regolamento IA saranno applicabili, comprese quelle relativi ai sistemi ad alto rischio.

Se necessiti di una consulenza inerente l’adeguamento appena descritto, non esitare a contattare lo Studio SGHS.