*L'Unione Europea ha la sua legge sull'intelligenza artificiale*
Il 13 marzo il Parlamento europeo ha approvato l'AI Act: il regolamento 
europeo sull'intelligenza artificiale.
Ecco cosa c'è da sapere.
Dopo le ultime formalità, l'AI Act entrerà ufficialmente in vigore entro 
maggio o giugno.
Le sue disposizioni *entreranno in vigore gradualmente*:
- Entro sei mesi: i Paesi dovranno vietare i sistemi di intelligenza 
artificiale vietati.
- Entro un anno: inizieranno ad applicarsi le regole per i sistemi di IA 
per scopi generali.
- Entro due anni: si applicherà la maggior parte della legge sull'IA.
- Entro tre anni: entreranno in vigore gli obblighi per i sistemi ad 
alto rischio.
*Le multe* per la mancata conformità possono arrivare a 35 milioni di 
euro o al 7% del fatturato globale annuo dell'azienda.
*Vietato:*
*-* Sfruttamento delle vulnerabilità di individui o gruppi in base 
all'età, alla disabilità o allo status socio-economico.
*- *Pratiche manipolative e ingannevoli, come i sistemi che utilizzano 
tecniche subliminali per distorcere materialmente la     capacità 
decisionale di una persona.
*- *Sistemi di categorizzazione biometrica basati su caratteristiche 
sensibili, che classificano gli individui sulla base di dati biometrici 
per dedurre informazioni sensibili come razza, opinioni politiche o 
orientamento sessuale (sono previste eccezioni per le attività di polizia).
*-* Social scoring (valutazione di individui o gruppi nel tempo in base 
al loro comportamento sociale o alle loro caratteristiche personali).
*-* Scraping non mirato di immagini facciali da Internet o da filmati di 
telecamere a circuito chiuso per creare database di riconoscimento facciale.
*-* Riconoscimento delle emozioni nei luoghi di lavoro e nelle 
istituzioni educative (con eccezioni per motivi medici o di sicurezza).
*-* Polizia predittiva (quando si basa esclusivamente sul profilo di una 
persona o sulla valutazione delle sue caratteristiche).
*L'identificazione biometrica in tempo reale (RBI)* negli spazi pubblici 
da parte delle forze dell'ordine non è completamente vietata, ma 
limitata. L'identificazione è consentita in determinate circostanze (gli 
usi consentiti includono la ricerca di una persona scomparsa o la 
prevenzione di un attacco terroristico), previa approvazione da parte di 
un tribunale o di un'autorità indipendente.
I sistemi di identificazione biometrica post-facto ("RBI post-remoto") 
sono considerati un caso d'uso ad alto rischio, che richiede 
l'autorizzazione dell'autorità giudiziaria in quanto collegati a un reato.
Le seguenti aree non sono vietate, ma sono considerate *"ad alto 
rischio"*. I sistemi che operano in queste aree saranno valutati sia 
prima dell'immissione sul mercato sia durante il loro ciclo di vita. I 
cittadini potranno presentare reclami alle autorità nazionali.
*Le aree ad alto rischio *comprendono non solo le infrastrutture 
critiche o i componenti di sicurezza, ma anche l'*istruzione* (per 
determinare l'accesso o l'ammissione, l'assegnazione di individui a 
istituzioni o programmi di formazione a tutti i livelli, la valutazione 
dei risultati di apprendimento degli individui, la valutazione del 
livello di istruzione appropriato per un individuo e l'influenza sul 
livello di istruzione a cui può accedere, il monitoraggio e 
l'individuazione di comportamenti vietati degli studenti durante i 
test); *occupazione* (per l'assunzione e la selezione di persone, per 
prendere decisioni su termini e condizioni dei contratti di lavoro, per 
l'assegnazione di compiti basati su comportamenti, tratti o 
caratteristiche personali individuali e per il monitoraggio o la 
valutazione delle persone); *servizi essenziali*, tra cui l'assistenza 
sanitaria, le prestazioni di sicurezza sociale, i servizi sociali e il 
rating del credito; l'amministrazione della giustizia (compresi gli 
organismi di risoluzione alternativa delle controversie); la migrazione 
e la gestione delle frontiere (come l'esame delle domande di asilo, di 
visto e di permesso di soggiorno e le relative richieste).
*I sistemi di IA per scopi generici* (GPAI) e i modelli su cui si basano 
(compresi i modelli di IA generativa di grandi dimensioni) dovranno 
rispettare una serie di requisiti di*trasparenza*, come ad esempio: 
rivelare che il contenuto è generato dall'IA, garantire che i modelli 
non generino contenuti illegali, rispettare la *legge sul copyright 
dell'UE* e pubblicare *sintesi* dettagliate dei contenuti utilizzati per 
la formazione.
I modelli più potenti che potrebbero comportare rischi sistemici 
dovranno rispettare anche altri obblighi, come la conduzione di 
valutazioni dei modelli, la valutazione e l'attenuazione dei rischi 
sistemici e la segnalazione degli incidenti.
I Paesi dell'UE devono creare e rendere disponibili a livello nazionale 
sandbox  regolamentari (
https://it.wikipedia.org/wiki/Sandbox) e test 
reali per consentire alle PMI/piccole e medie impresee alle startup di 
sviluppare sistemi di IA prima che entrino nel mercato.
(Elaborato a partire dal testo finale in allegato, dal documento del 
Parlamento europeo 
(
https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law) 
e dai commenti di Luiza Jarovsky 
(
https://twitter.com/LuizaJarovsky/status/1767899302930657704).