Digital

Artificial Intelligence Act: approvato dal Parlamento Europeo. Siani (ADCI): "Si sta scrivendo la storia. Norme per garantire che l'IA in Europa sia conforme coi diritti in tema di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione"

Il presidente ADCI e Ceo e Chief Creative Officer di Serviceplan Italy con un post su LinkedIn sottolinea la rilevanza della posizione del Parlamento europeo sulla legge sull’Intelligenza Artificiale (AI). I sistemi di IA generativa quali ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall'IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali.

L’Artificial Intelligence Act è stato approvato dal Parlamento Europeo. E' la proposta di legge che ha lo scopo di introdurre a livello comunitario un quadro di norme riguardanti i software di AI all’interno dell’Ue. 

Con il voto del 14 giugno, il Parlamento europeo amplia l’elenco dei sistemi di IA a rischio inaccettabile: tra questi devono essere inclusi i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio genere, razza, etnia, stato di cittadinanza, religione, orientamento politico), sistemi di polizia predittiva (basati su profilazione, posizione o precedenti penali), o sistemi di riconoscimento delle emozioni nelle forze dell’ordine, alle frontiere, sul posto di lavoro e nelle scuole. Il testo approvato dal Parlamento prevede anche il ban all’identificazione biometrica remota in tempo reale ed ex post in spazi pubblici, con un’eccezione per le forze dell’ordine nell’utilizzo dell’identificazione biometrica ex post per il perseguimento di reati gravi, previa autorizzazione giudiziaria.

Per il Parlamento europeo, dovranno essere classificati ad alto rischio anche i sistemi di IA che potrebbero influenzare gli elettori e l’esito delle elezioni, e quelli utilizzati dagli algoritmi di raccomandazione dei social media o altre piattaforme digitali. Inoltre, in linea con l’approccio che dà priorità ai bisogni e agli interessi degli “umani” nella loro interazione con le macchine, l’AI Act approvato dal Parlamento prevede la possibilità di presentare reclami e ricevere spiegazioni per le decisioni prese tramite sistemi di IA ad alto rischio.

Un' iniziativa fondamentale a tutela del mercato e delle agenzie e dei professionisti dell'industry pubblicitaria, come sottolinea in un post su LinkedIn anche Stefania Siani, presidente ADCI.

"Si sta scrivendo la storia. In questi giorni in queste ore. Ed è tempo di restare concentrati, informati e consapevoli. Mercoledì scorso il Parlamento europeo ha adottato la sua posizione negoziale sulla legge sull’Intelligenza Artificiale (AI) Le norme mirano a garantire che l'IA sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell'UE, in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale.

Saranno vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale.

I deputati hanno ampliato l'elenco per includere divieti sugli usi intrusivi e discriminatori dell'IA, come: l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico.

Come dice Benifei: "Siamo riusciti a mentenere un chiaro divieto al riconoscimento facciale in tempo reale. Siamo riusciti a mantenere una chiara salvaguardia per evitare ogni rischio di sorveglianza di massa" Vietati l’uso di sistemi di identificazione biometrica remota "a posteriori" in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria.

Vietati i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); Vietati i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati); i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell'ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d'istruzione; e l'estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

I deputati vogliono che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni Infine, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA sui loro diritti fondamentali.

Per noi che abbiamo a che fare con la protezione del diritto d’autore è di fondamentale importanza questo aspetto normativo: I sistemi di IA generativa quali ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall'IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d'autore utilizzati per l'addestramento".