L’Eurocamera ha approvato il testo dell’AiAct, che rappresenta la prima regolamentazione al mondo per l’Intelligenza Artificiale (IA) e introduce nuove norme che promuovono il rispetto delle leggi Ue e dei valori fondamentali. L’approvazione è avvenuta con una schiacciante maggioranza di 499 voti a favore, 28 contrari e 93 astenuti durante l’aula di Strasburgo.
L’obiettivo principale dell’AiAct è combattere la discriminazione digitale, prevenire la diffusione di disinformazione e limitare l’utilizzo dei ‘deep fakes’. Queste nuove regole pongono l’IA sotto il controllo delle normative europee e aprono la strada ai negoziati con i Paesi membri e la Commissione Ue.
Tra le disposizioni chiave, il divieto totale dell’utilizzo di tecnologie di riconoscimento facciale in tempo reale nei luoghi pubblici attraverso l’IA. Inoltre, è stato respinto l’emendamento del Ppe che chiedeva eccezioni per l’uso di telecamere di riconoscimento facciale per motivi di sicurezza nazionale o nel caso di minori scomparsi.
Le norme dell’AiAct si basano su un approccio basato sul rischio, imponendo obblighi ai fornitori e agli operatori dei sistemi di IA in base al livello di rischio che possono generare. Saranno vietati sistemi di IA che presentino un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale o per discriminazioni basate su caratteristiche personali.
Inoltre, i deputati europei hanno ampliato l’elenco dei divieti includendo l’uso intrusivo e discriminatorio dell’IA, come l’identificazione biometrica in tempo reale e successiva in spazi pubblici accessibili, la categorizzazione biometrica basata su caratteristiche sensibili, i sistemi di polizia predittiva e il riconoscimento delle emozioni.
Il testo approvato dal Parlamento europeo classifica anche come ad alto rischio i sistemi di IA utilizzati per influenzare gli elettori e l’esito delle elezioni, nonché i sistemi di raccomandazione utilizzati dalle piattaforme di social media.
Per quanto riguarda i sistemi di IA generativa, come ChatGPT, il testo richiede il rispetto dei requisiti di trasparenza, compresa l’indicazione che il contenuto è stato generato dall’IA, al fine di distinguere le immagini deep-fake da quelle reali. Si prevede inoltre la pubblicazione delle sintesi dettagliate dei dati utilizzati per l’addestramento, rispettando i diritti d’autore.
I relatori del testo sottolineano l’importanza di applicare le regole anche all’uso dell’IA per la gestione delle frontiere.