Home / Intelligenza Artificiale / AI Act eu: cosa sappiamo
×
IA per tutti
×
icona-ricerca

AI Act eu: cosa sappiamo

Cos'è l'AI Act dell'Unione Europea, quali sono i temi trattati, gli obiettivi e i tempi di approvazione? Scopriamolo insieme!

di Antonio Dello Iaco

Cos’è l’AI Act europeo di cui si parla tanto nelle ultime settimane? L’Unione europea vuole regolamentare le applicazioni che usano l’intelligenza artificiale.

Il Parlamento europeo ha concesso un primo via libera a questo regolamento lo scorso giugno. Entro la fine dell’anno è prevista l’approvazione definitiva del documento da parte di tutti i Paesi membri dell’Ue e l’ entrata in vigore è programmata tra il 2024 e il 2025.

Entra nella community Telegram e WhatsApp per ricevere news e approfondimenti sul mondo dell’intelligenza artificiale e chattare con altri appassionati.

Regolamento europeo sull’IA: un provvedimento di cui l’Europa ha bisogno

Entro la fine di questa legislatura, l’Unione Europea dovrebbe partorire il testo ufficiale dell’AI Act europeo.

Il regolamento, che sarà valido per tutti gli stati membri, punta a una armonizzazione forte (così definita in ambito giuridico ndr) delle normative in materia di gestione, uso e sfruttamento dell’intelligenza artificiale.

In queste settimane abbiamo approfondito più volte il quadro della normativa nazionale e comunitaria sull’uso dell’IA e del digitale. Abbiamo parlato di etica, di copyright e di armi. In ognuno di questi articoli è emersa una constatazione: la necessità di una regolamentazione internazionale che cerchi di indirizzare l’intelligenza artificiale verso un utilizzo corretto e consapevole.

L’AI Act sarà una vera innovazione sia per l’Europa che per il mondo. Parliamo del primo e unico regolamento mai approvato sulla regolamentazione di questi sistemi.

INTELLIGENZA ARTIFICIALE: COME PROVARLA – 5 SITI GRATIS

Ricevi contenuti extra e guarda le video-guide di iapertutti.it su YouTube, Facebook e Instagram.

AI Act UE: cosa prevede?

Come dicevamo, un primo testo del provvedimento è stato approvato dal Parlamento Europeo il 14 giugno del 2023. Al momento sono in corso le contrattazioni con i singoli stati membri. L’obiettivo è concepire una normativa ben vista e accolta da tutti i ventisette che si basi su:

Il focus del provvedimento è quello di regolamentare i software alla base degli applicativi IA per evitare danni causati dai bias e dai difetti corretti all’automazione dell’apprendimento di queste macchine (machine learning).

I quattro livelli di rischio

L’atto europeo sull’IA introdurrà quattro livelli di rischio per categorizzare i vari applicativi che usano queste tecnologie. Maggiore è il rischio e più sarà necessario intervenire con la limitazione di funzioni specifiche.

Il provvedimento legislativo introduce l’obbligatorietà periodica di monitoraggio dei software che varia a seconda del livello di rischio dell’applicazione.

IA di rischio inaccettabile

La normativa vieta tutte le applicazioni che usano tecniche subliminali o sistemi di identificazione biometrica remota in tempo reale. Questa è una delle novità più importanti che garantisce l’abbandono del rischio del “governo della sorveglianza” da parte di Stati o di organizzazioni più autoritarie.

Gli unici sistemi di identificazione biometrica che saranno ammessi sono quelli a distanza e “a posteriori”, utilizzabili solo dopo un’apposita autorizzazione dell’autorità giudiziaria e solo per il perseguimento di reati gravi.

Il livello di rischio alto

Rientrano in questa categoria le applicazioni che riguardano i temi di:

Chi vorrà mettere a disposizione dei consumatori app e piattaforme di questo tipo, deve eseguire la cosiddetta “valutazione di conformità preliminare” e soddisfare un lungo elenco di requisiti sulla sicurezza dei software e dei sistemi usati per la programmazione del prodotto.

Per motivi di trasparenza, le aziende devono fornire informazioni sui sistemi utilizzati per la creazione di questi applicativi IA ad alto rischio. La Commissione UE raccoglierà i dati in un apposito database pubblico a servizio dei cittadini e delle cittadine.

Il rischio limitato

Il rischio limitato è quello che coinvolge la maggior parte delle ultime applicazioni di intelligenza artificiale immesse sul mercato. Vige l’obbligo di trasparenza: prevede che il consumatore dovrà subito essere informato di interagire con un bot e non con un essere umano.

Le applicazioni di rischio minimo

Gli applicativi IA di rischio minimo sono quelle che prevedono una regolamentazione meno stringente perché interagiscono in minor modo con i dati degli utenti.

È il caso, per esempio, dei filtri anti spam automatici nelle caselle di posta elettronica e dei sistemi di gestione delle merci rimaste in un magazzino o in un inventario.

Invia i tuoi risultati e ricevi i prossimi contenuti sul gruppo Telegram o Whatsapp oppure scrivici a iaxtutti@gmail.com

Quando entrerà in vigore il regolamento sull’IA?

Il provvedimento legislativo sull’AI dell’Unione Europea dovrebbe essere firmato e approvato entro la fine di questa legislatura. Sarà concesso a tutti gli stati membri il tempo per la ratifica del testo nei vari parlamenti nazionali.

Come anticipato, il documento dovrebbe diventare operativo tra il 2024 e il 2025. Le aziende interessate dal provvedimento, avranno circa due anni (grace period) per mettersi in regola.

Chi si uniformerà alla normativa europea riceverà il bollino CE, il marchio dell’Unione che certifica la conformità alle leggi comunitarie del prodotto.

AI Act eu: cosa sappiamo
L’immagine rappresenta la fase di discussione politica sull’approvazione dell’AI Act europeo.

FAQ sulla regolamentazione europea sul digitale

AI Act e GDPR

L’AI Act non sarà il primo provvedimento approvato dall’Unione Europea in materia di digitale. Il primo regolamento risale infatti al 2016, si tratta del GDPR (Regolamento generale sulla protezione dei dati). Questo provvedimento mira alla corretta gestione e al trattamento dei dati personali. Si basa sui seguenti pilastri:

  1. Liceità: Le azioni devono rispettare tutte le normative vigenti relative al trattamento dei dati.
  2. Minimizzazione: Solo i dati strettamente necessari per gli scopi del trattamento devono essere raccolti.
  3. Trasparenza: Le condizioni di trattamento dei dati devono essere chiaramente espresse nell’informativa accettata dall’utente.
  4. Limitazione delle Finalità: Le ragioni per la raccolta dei dati devono essere definite prima del loro trattamento.
  5. Esattezza: I dati raccolti devono essere precisi, veritieri e aggiornati quando necessario.
  6. Conservazione: I dati devono essere conservati per un periodo non superiore a quello necessario per raggiungere gli scopi prefissati, a meno che non vi siano motivi di interesse pubblico, ricerca scientifica o storica, o fini statistici.
  7. Integrità e Riservatezza: Devono essere adottate tutte le misure possibili per proteggere i dati da perdite o trattamenti illeciti.

L’Italia usa sempre più Intelligenza Artificiale

Sempre più imprese italiane usano sistemi e applicativi di IA. A rivelarlo è stato il Politecnico di Milano con un recente report pubblicato dall’osservatorio Artificial Intelligence.

Il mercato dell’IA, dal 2021 al 2022, è cresciuto del 32 per cento. Le imprese italiane che hanno già avviato un progetto sul tema dell’uso dell’AI è pari al:

Chi è soggetto all’AI Act europeo?

L’AI Act si applica a una vasta gamma di soggetti, tra cui sviluppatori di software, fornitori di servizi basati sull’IA e organizzazioni che utilizzano sistemi di intelligenza artificiale.

In generale, tutte le parti coinvolte nell’uso e nello sviluppo dell’IA devono rispettare le norme stabilite da questo atto normativo.

Impara a scrivere prompt da zero e sblocca tutti i corsi, i podcast e le guide aggiuntive con la nostra community premium.

Ecco gli articoli preferiti dagli utenti:

Cita questo articolo