Disposizioni in merito alla regolamentazione dell’uso dell'AI (intelligenza artificiale)

  • Pubblicato il 20 Dicembre 2023
  • da LICEO GIACOMO LEOPARDI, Recanati (Macerata)
Disposizioni in merito alla regolamentazione dell’uso dell'AI (intelligenza artificiale)

Per votare il testo finale è necessario autenticarsi. Il voto può essere espresso solo dagli utenti facenti parte della classe proponente.

Art. 1
(Principi generali)
1. La presente legge dispone in relazione all’uso di applicazioni di intelligenza artificiale per garantire la protezione degli utenti da rischi derivanti dall’uso con il fine di tutelare l’integrità e i diritti fondamentali di  dignità umana,  libertà, uguaglianza, democrazia, diritto alla non discriminazione, protezione dei dati, salute e la sicurezza.
2. Le disposizioni previste sono finalizzate alla:
a)    valutazione di conformità dei prodotti immessi sul mercato;
b)    riconoscibilità dei prodotti per gli utenti: si obbliga a rendere riconoscibili in modo trasparente tutti i contenuti prodotti dall’I.A., l’informazione e la tracciabilità degli algoritmi. Inoltre si fa obbligo alle aziende produttrici di sistemi informatici che includano anche modelli di produzione linguistica (Large Language Models) di pubblicare una lista di materiali usati per l’addestramento degli algoritmi al fine di tutelare i diritti d’autore;
c)    classificazione dei prodotti in base al rischio di impatto sui diritti fondamentali degli utenti:
1.    sistemi a rischio inaccettabile: prodotti vietati;
2.    sistemi a rischio molto alto: prodotti soggetti a valutazione di impatto sui diritti, quindi autorizzati con misure di cautela;
3.    sistemi a rischio medio: prodotti che interagiscono con le persone e richiedono informazioni all’utenza per uso consapevole.


Art. 2
(Ambito di applicazione)
1. La presente legge disciplina lo sviluppo, la fornitura e l’uso dei sistemi di intelligenza artificiale e si applica ai produttori e fornitori di sistemi di I.A. modellati per finalità generali.
2. Non rientrano nell'ambito di applicazione i sistemi di intelligenza artificiale utilizzati per:
a)    scopo ricerca e innovazione;
b)    scopo militare e di difesa;
c)    scopi non professionali.


Art. 3
(Definizioni)
 Ai fini della presente legge si applicano le seguenti definizioni :
a) Intelligenza artificiale (di seguito indicata I.A.):  sistema che si distingue da sistemi software più semplici per elementi per:
1.    adattabilità: capacità di adattarsi a nuove situazioni senza richiedere una riconfigurazione manuale;
2.    autonomia decisionale: alcuni prodotti di I.A. possono prendere decisioni basate su dati e modelli appresi, senza intervento umano costante.
b) Fornitore: industriale o commerciante che abitualmente fornisce determinati               prodotti;
c) Utente: chi usufruisce di un bene o di un servizio offerto da enti pubblici o privati;
d) Autorità di notifica: ente o organizzazione responsabile di informare e segnalare eventi specifici o dati rilevanti a un’autorità superiore secondo procedure e regolamenti stabiliti;
e) Valutazione della conformità: ente che esegue la verifica dei requisiti definiti nella normativa di riferimento riguardo a prodotti, processi, sistemi di gestione, persone;
f) Marcatura I.A. di conformità: logo che attesta la conformità di un prodotto alla normativa vigente e permette la libera circolazione del prodotto stesso all'interno del mercato;
g) Autorità di vigilanza sul mercato: istituzione indipendente che ha il compito di controllare il rispetto della regolamentazione relativa a un determinato ambito di attività;
h) Dati biometrici: dati che permettono il riconoscimento automatico di un individuo in base alle sue caratteristiche fisiche o comportamentali, come impronte digitali, tratti del viso, modelli vocali, scansioni dell'iride o della retina o persino dello stile di battitura di una persona;
i) Dati di input: in informatica, insieme dei dati di ingresso forniti dall'utente al calcolatore. La fase di input rappresenta il processo di inserimento dei dati di ingresso;
l) Sistema di riconoscimento delle emozioni: sistema mirato all’identificazione o alla deduzione di emozioni, pensieri, stati d'animo o intenzioni di individuo;
m) Autorità nazionale di controllo: autorità pubblica indipendente che vigila, tramite i poteri investigativi e correttivi, sull'applicazione della normativa sulla protezione dei dati.


Art. 4
(Divieti)
1. Con il presente articolo si fa divieto di utilizzo o produzione di sistemi di I.A. (rischio inaccettabile):
a)    È vietato l'utilizzo dell'I.A. per manipolare il comportamento umano al fine di aggirare il libero arbitrio degli utenti.
b)    È vietato sviluppare o utilizzare prodotti o sistemi basati sull'I.A. che possano causare danni fisici o psicologici attraverso la manipolazione comportamentale cognitiva.
c)    È vietato l'uso di  sistemi di valutazione del comportamento sociale dei singoli individui tramite parametri online e offline (social scoring) da parte o per conto delle autorità pubbliche, poiché ciò potrebbe portare a un trattamento dannoso o sfavorevole degli individui sulla base di valutazioni soggettive.
d)    È vietato effettuare una raccolta non concessa delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso al fine di proteggere la privacy e la sicurezza dei cittadini. Questo divieto mira a prevenire un uso improprio delle informazioni personali degli individui e a garantire che le loro immagini non vengano utilizzate senza consenso.
e)    È vietato l'utilizzo di qualsiasi sistema basato sull'I.A. per riconoscere lo stato emotivo dei lavoratori o degli studenti all'interno di luoghi di lavoro o istituzioni educative. Le organizzazioni, sia pubbliche che private, sono tenute a rispettare la privacy e la dignità dei lavoratori e degli studenti non potendo richiedere o imporre loro la sottomissione a test o monitoraggio delle emozioni basati sull'I.A..
f)    È vietato a qualsiasi entità pubblica o privata di utilizzare l'I.A. per colpire o discriminare persone identificate come più vulnerabili secondo i criteri stabiliti dalla legge. Il divieto è relativo all'uso di algoritmi di decisione automatizzata basati sull'I.A. che possano rilevare esiti negativi sulle persone considerate, secondo dati statistici, potenzialmente vulnerabili: minori, anziani, persone con disabilità, appartenenti a minoranze etniche, sociali o religiose.
g)    È vietato sviluppare, utilizzare o diffondere qualsiasi tipo di sistema basato sull'I.A. che possa essere utilizzato per discriminare individui in base alla loro razza o origine etnica, religione, genere, orientamento sessuale, status socioeconomico, età, disabilità o altre caratteristiche individuali.
2. Le violazioni del presente articolo sono punite con le sanzioni  previste dall’ art. 9 della presente legge.

Art. 5
(Limiti all’uso di sistemi di identificazione biometrica)
1. Ogni singolo utilizzo di un sistema di identificazione biometrica remota “in tempo reale” in spazi pubblici è preventivamente autorizzato da un'autorità giudiziaria o amministrativa indipendente. Tale autorizzazione è rilasciata su richiesta motivata e in conformità alle regole dettagliate del diritto nazionale.
2. L’utilizzo dell’I.A. da parte delle forze dell’ordine è consentito per:
a)    Ricerca mirata di potenziali vittime di reato: questo include la ricerca di individui specifici, compresi i minori scomparsi, al fine di proteggere la loro sicurezza e benessere;
b)    Prevenzione di minacce imminenti: l'utilizzo dei sistemi di identificazione biometrica è consentito per prevenire una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone o per prevenire un attacco terroristico;
c)    Individuazione e persecuzione di criminali: gli strumenti di identificazione biometrica possono essere utilizzati per individuare, localizzare, identificare o perseguire autori o sospettati di reati punibili con pene o misure di sicurezza privative della libertà della durata minima di almeno tre anni.


Art. 6
(Obblighi di trasparenza)
1. E’ fatto obbligo di informare l’utenza che interagisce con un prodotto o sistema di I.A. nei casi in cui :  
a)    gli utilizzatori siano esposti a prodotti che generano o manipolano immagini, contenuti audio o video che assomigliano sensibilmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero falsamente apparire come autentici o veritieri (deep fake);
b)    tale interazione comporti il riconoscimento delle emozioni o la categorizzazione biometrica.
2. Per i produttori e fornitori di servizi e sistemi di I.A., si fa obbligo di segnalare i contenuti prodotti da I.A. mediante
a)    apposito contrassegno per testi, immagini o video;
b)    segnalazione acustica per  contenuti audio.


Art. 7
 (Regole per i fornitori di prodotti di I.A. ad alto rischio)
1. Si fa obbligo per i fornitori dei prodotti di I.A. ad alto rischio di adottare le seguenti regole:
a)    Uso di un sistema per valutare e contrastare il rischio, con un aggiornamento costante e sistematico, sia in fase di costruzione del sistema che successivamente alla sua immissione sul mercato;
b)    Gestione dei dati affinché siano di alta qualità, poiché più alta è la qualità dei dati, più bassi sono i rischi per i diritti fondamentali e il rischio di esiti discriminatori;
c)    Adozione di documentazione tecnica che fornisca tutte le informazioni necessarie per valutare la conformità del sistema ai requisiti e per consentire alle autorità di valutare tale conformità;
d)    Conservazione della documentazione tramite registri per garantire la tracciabilità dei risultati;
e)    Supervisione umana per controllare e minimizzare il rischio.
2. I fornitori di prodotti o sistemi di I.A. hanno l’obbligo di istituire e documentare, successivamente all’immissione sul mercato, un sistema di monitoraggio che deve essere proporzionato alla natura delle tecnologie di intelligenza artificiale utilizzata e al livello del rischio.


Art. 8
(Autorità di controllo e regole sul monitoraggio e sulla sorveglianza del mercato)
1. Il Ministero delle Imprese e del Made in Italy ( MIMIT) individua un’autorità nazionale di controllo tra le autorità nazionali competenti. Questa agisce in qualità di autorità di notifica e di autorità di vigilanza del mercato.
2. L’Autorità designata agisce in piena indipendenza secondo criteri di trasparenza e imparzialità, con azioni proprie e in coordinamento con altre autorità competenti.
3. L’Autorità è responsabile dello sviluppo, della supervisione e del monitoraggio dei progetti derivanti dal Programma Strategico per l’IA- 2022-24 , così come di progetti relativi allo sviluppo normativo dell’intelligenza artificiale e dei suoi possibili usi.


Art. 9
(Copertura finanziaria)
Sono stanziati per l’anno in corso 3.000.000 di euro per l’avviamento dell’organo di notifica e controllo e per il finanziamento della dotazione organica dell’Autorità designata che, a secondo della struttura preesistente, potrebbe rappresentare da 1 a 25 unità a tempo pieno.


Art. 10
(Sanzioni)
1. Si fa obbligo che le seguenti violazioni siano soggette a sanzioni amministrative pecuniarie fino a 30 000 000 di EUR o, se l'autore del reato è una società, fino al 6 % del fatturato totale annuo dell'esercizio precedente, se superiore:
1)    Inosservanza del divieto delle pratiche di I.A. di cui all'articolo 4 della presente legge;
2)    La non conformità del sistema di I.A. ai requisiti o agli obblighi previsti dalla presente legge. Questa violazione è soggetta a sanzioni amministrative pecuniarie fino a 20 000 000 di EUR o, se l'autore del reato è una società, fino al 4 % del fatturato totale annuo dell'esercizio precedente, se superiore;
3)    La fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti. Questa violazione è soggetta a sanzioni amministrative pecuniarie fino a 10 000 000 di EUR o, se l'autore del reato è una società, fino al 2 % del fatturato totale annuo dell'esercizio precedente, se superiore.
2. Nello stabilire l'importo della sanzione amministrativa pecuniaria in ogni singolo caso, si tiene conto di tutte le circostanze pertinenti della situazione specifica e di quanto segue:
a)    La natura, la gravità e la durata della violazione e delle sue conseguenze;
b)    Se altre autorità di vigilanza del mercato hanno già applicato sanzioni amministrative pecuniarie allo stesso operatore per la stessa violazione;
c)    Le dimensioni e la quota di mercato dell'operatore che ha commesso la violazione.

 

Onorevoli senatori! Alla luce della recente crescita delle tecnologie ad intelligenza artificiale, di fronte all’ampia e rapida diffusione dell’utilizzo di questa tecnologia negli ultimi anni, potremmo dire negli ultimi mesi, e agli straordinari progressi scientifici avvenuti in questo settore, si rende necessaria e non più rinviabile una legge che tuteli i cittadini italiani dai rischi derivanti dall’uso di queste tecnologie. Senza dubbio l'utilizzo inappropriato e la scarsa trasparenza di dati della tecnologia ad intelligenza artificiale rappresentano un problema del quale lo Stato Italiano ha il compito di occuparsi: diritti fondamentali come la proprietà di immagine, la privacy, il diritto d’autore, la libertà, il lavoro senza discriminazioni, l’uguaglianza nonché la democrazia stessa sono minacciati da un uso improprio di tale tecnologia da parte di enti pubblici e privati. Dunque una regolamentazione è necessaria.  Come è necessario imporre sanzioni amministrative e penali qualora le norme non vengano rispettate. In Italia, come ben sapete, non vi è ancora una legge, anche se è stato da poco approvato dal Parlamento Europeo un regolamento che prende il nome di “A.I. Act”, il quale costituirà il punto di riferimento normativo di ciascuno Stato membro. Ricordiamo che tale normativa europea è attualmente in attesa di approvazione da parte del Consiglio per  entrare in vigore per tutti gli stati membri nel  2026. Nel frattempo, però, abbiamo necessità di una legge.
La presente proposta  di legge si compone di dieci articoli:
L’ art. 1 concerne i principi generali di applicazione di I.A. volti alla tutela di diritti umani, quali la libertà, la  democrazia e la sicurezza.
L’ art. 2 è relativo all’ambito di applicazione della normativa, da cui sono escluse, giustamente, le attività effettuate a scopo di ricerca e di difesa militare.
L’ art. 3 stabilisce  le definizioni di tutti i termini specifici presenti nella legge, al fine di una chiarezza giuridica.
L’ art. 4 esplicita tutti i divieti imposti all’utilizzo e alla produzione di sistemi I.A. che presentano un rischio totale o inaccettabile, dalla manipolazione, alla discriminazione su base etnica o di genere, alla raccolta di immagini, alla pubblicazione di contenuti falsi, ma scambiabili o confondibili come veri.
Molto importante è l’art. 5, riguardante i limiti per l’identificazione biometrica remota, concessa esclusivamente in particolari circostanze di difesa e protezione.
Nell’ art. 6 si  affronta poi il tema della trasparenza sui prodotti generati da I.A. così che vi sia un chiaro contrassegno dell’origine e della fonte del prodotto stesso in modo da evitare qualsiasi manipolazione o inganno. Ciò in particolare da parte delle aziende produttrici nei confronti dei propri utenti, i quali hanno il diritto di usufruire del servizio consapevolmente.
Nell’articolo art. 7 vengono esplicitati gli specifici limiti imposti ai fornitori di I.A. ad alto rischio, mentre nell' art. 8 si fa obbligo al Ministro competente di designare un’autorità nazionale di controllo e monitoraggio che abbia il compito di agire in qualità di autorità di notifica e vigilanza del mercato.
Nell’art. 9 si prevede la copertura finanziaria per l’avviamento dell’organo di notifica e controllo e per il finanziamento della dotazione organica dell’Autorità designata.
Nell’ultimo articolo, l’art. 10 vengono, infine, espresse le sanzioni pecuniarie e amministrative a cui è soggetto chiunque commetta violazioni rispetto a ciò che è stabilito dalla presente legge. Le sanzioni previste variano in base alla natura e alla durata della violazione, oltre che in relazione al numero e al tipo di violazioni già commesse in passato dal medesimo soggetto.
In ultima analisi, tutti gli  articoli inseriti all’interno della proposta di legge hanno un unico obiettivo,  la tutela dei cittadini italiani nei confronti di una tecnologia in pieno sviluppo, che offre svariate opportunità e servizi agli utenti, ma rappresenta una possibile minaccia a numerosi diritti fondamentali, nel caso venga utilizzata in modo scorretto.
Dunque sollecitiamo gli onorevoli senatori alla votazione della seguente proposta di legge, poiché non possiamo negare che il futuro tecnologico coinciderà con l'intelligenza artificiale, la quale, proprio per le  incredibili potenzialità che ha,  necessita indubbiamente di essere regolamentata.

 

il 27/03/2024
E. M. - Recanati, Mc
ha proposto il seguente emendamento:
3.1 all’art. 3, comma 1, dopo le parole: “ ….” inserire le seguenti “Intelligenza artificiale: l'abilità di una macchina di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività”.
Respinto
  • Voti totali: 17
  • Favorevoli: 0
  • Contrari: 16
  • Astenuti: 1
il 27/03/2024
E. Q. - Recanati (MC)
ha proposto il seguente emendamento:
8.1 All'articolo 8, al comma 1, dopo le parole: «Il Ministero delle Imprese e del Made in Italy (MIMIT)» inserire le seguenti: «o il Ministero della Difesa».
Respinto
  • Voti totali: 17
  • Favorevoli: 8
  • Contrari: 9
  • Astenuti: 0
il 27/03/2024
M. L. - Recanati (MC)
ha proposto il seguente emendamento:
10.1 All'articolo 10 , nel comma 1, sostituire la parola “30 000 000 di EURO" con " 10 000 000 di EURO".
Respinto
  • Voti totali: 17
  • Favorevoli: 1
  • Contrari: 6
  • Astenuti: 10
il 01/04/2024
E. M. - Recanati, Mc
ha proposto il seguente emendamento:
3.1 all’art. 3, comma 1, dopo le parole: “Intelligenza artificiale:” inserire le seguenti: “l'abilità di una macchina di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività”.
Approvato
  • Voti totali: 17
  • Favorevoli: 15
  • Contrari: 0
  • Astenuti: 2
il 01/04/2024
G. B. - Recanati (MC)
ha proposto il seguente emendamento:
6.1 All'articolo 6, nel comma 1,aggiungere le seguenti parole: “ai fini di autorità di contrasto da parte della polizia predittiva".
Respinto
  • Voti totali: 17
  • Favorevoli: 2
  • Contrari: 13
  • Astenuti: 2

Art. 1 
(Principi generali)
1. La presente legge dispone in relazione all’uso di applicazioni di intelligenza artificiale per garantire la protezione degli utenti da rischi derivanti dall’uso con il fine di tutelare l’integrità e i diritti fondamentali di  dignità umana,  libertà, uguaglianza, democrazia, diritto alla non discriminazione, protezione dei dati, salute e la sicurezza.
2. Le disposizioni previste sono finalizzate alla:
a.    valutazione di conformità dei prodotti immessi sul mercato;
b.    riconoscibilità dei prodotti per gli utenti: si obbliga a rendere riconoscibili in modo trasparente tutti i contenuti prodotti dall’I.A., l’informazione e la tracciabilità degli algoritmi. Inoltre si fa obbligo alle aziende produttrici di sistemi informatici che includano anche modelli di produzione linguistica (Large Language Models) di pubblicare una lista di materiali usati per l’addestramento degli algoritmi al fine di tutelare i diritti d’autore;
c.    classificazione dei prodotti in base al rischio di impatto sui diritti fondamentali degli utenti: 
1.    sistemi a rischio inaccettabile: prodotti vietati;
2.    sistemi a rischio molto alto: prodotti soggetti a valutazione di impatto sui diritti, quindi autorizzati con misure di cautela;
3.    sistemi a rischio medio: prodotti che interagiscono con le persone e richiedono informazioni all’utenza per uso consapevole.
Art. 2 
(Ambito di applicazione)
1. La presente legge disciplina lo sviluppo, la fornitura e l’uso dei sistemi di intelligenza artificiale e si applica ai produttori e fornitori di sistemi di I.A. modellati per finalità generali.
2. Non rientrano nell'ambito di applicazione i sistemi di intelligenza artificiale utilizzati per:
a.    scopo ricerca e innovazione;
b.    scopo militare e di difesa; 
c.    scopi non professionali.
Art. 3
(Definizioni)
 Ai fini della presente legge si applicano le seguenti definizioni:
a) Intelligenza artificiale (di seguito indicata I.A.): l'abilità di una macchina di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività; sistema che si distingue da sistemi software più semplici per elementi per: 
1.    adattabilità: capacità di adattarsi a nuove situazioni senza richiedere una riconfigurazione manuale; 
2.    autonomia decisionale: alcuni prodotti di I.A. possono prendere decisioni basate su dati e modelli appresi, senza intervento umano costante.
b) Fornitore: industriale o commerciante che abitualmente fornisce determinati               prodotti;
c) Utente: chi usufruisce di un bene o di un servizio offerto da enti pubblici o privati;
d) Autorità di notifica: ente o organizzazione responsabile di informare e segnalare eventi specifici o dati rilevanti a un’autorità superiore secondo procedure e regolamenti stabiliti;
e) Valutazione della conformità: ente che esegue la verifica dei requisiti definiti nella normativa di riferimento riguardo a prodotti, processi, sistemi di gestione, persone;
f) Marcatura I.A. di conformità: logo che attesta la conformità di un prodotto alla normativa vigente e permette la libera circolazione del prodotto stesso all'interno del mercato;
g) Autorità di vigilanza sul mercato: istituzione indipendente che ha il compito di controllare il rispetto della regolamentazione relativa a un determinato ambito di attività;
h) Dati biometrici: dati che permettono il riconoscimento automatico di un individuo in base alle sue caratteristiche fisiche o comportamentali, come impronte digitali, tratti del viso, modelli vocali, scansioni dell'iride o della retina o persino dello stile di battitura di una persona;
i) Dati di input: in informatica, insieme dei dati di ingresso forniti dall'utente al calcolatore. La fase di input rappresenta il processo di inserimento dei dati di ingresso;
l) Sistema di riconoscimento delle emozioni: sistema mirato all’identificazione o alla deduzione di emozioni, pensieri, stati d'animo o intenzioni di individuo;
m) Autorità nazionale di controllo: autorità pubblica indipendente che vigila, tramite i poteri investigativi e correttivi, sull'applicazione della normativa sulla protezione dei dati. 
Art. 4 
(Divieti)
1. Con il presente articolo si fa divieto di utilizzo o produzione di sistemi di I.A. (rischio inaccettabile):
a.    È vietato l'utilizzo dell'I.A. per manipolare il comportamento umano al fine di aggirare il libero arbitrio degli utenti.
b.    È vietato sviluppare o utilizzare prodotti o sistemi basati sull'I.A. che possano causare danni fisici o psicologici attraverso la manipolazione comportamentale cognitiva.
c.    È vietato l'uso di  sistemi di valutazione del comportamento sociale dei singoli individui tramite parametri online e offline (social scoring) da parte o per conto delle autorità pubbliche, poiché ciò potrebbe portare a un trattamento dannoso o sfavorevole degli individui sulla base di valutazioni soggettive.
d.    È vietato effettuare una raccolta non concessa delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso al fine di proteggere la privacy e la sicurezza dei cittadini. Questo divieto mira a prevenire un uso improprio delle informazioni personali degli individui e a garantire che le loro immagini non vengano utilizzate senza consenso.
e.    È vietato l'utilizzo di qualsiasi sistema basato sull'I.A. per riconoscere lo stato emotivo dei lavoratori o degli studenti all'interno di luoghi di lavoro o istituzioni educative. Le organizzazioni, sia pubbliche che private, sono tenute a rispettare la privacy e la dignità dei lavoratori e degli studenti non potendo richiedere o imporre loro la sottomissione a test o monitoraggio delle emozioni basati sull'I.A..
f.    È vietato a qualsiasi entità pubblica o privata di utilizzare l'I.A. per colpire o discriminare persone identificate come più vulnerabili secondo i criteri stabiliti dalla legge. Il divieto è relativo all'uso di algoritmi di decisione automatizzata basati sull'I.A. che possano rilevare esiti negativi sulle persone considerate, secondo dati statistici, potenzialmente vulnerabili: minori, anziani, persone con disabilità, appartenenti a minoranze etniche, sociali o religiose.
g.    È vietato sviluppare, utilizzare o diffondere qualsiasi tipo di sistema basato sull'I.A. che possa essere utilizzato per discriminare individui in base alla loro razza o origine etnica, religione, genere, orientamento sessuale, status socioeconomico, età, disabilità o altre caratteristiche individuali.
2. Le violazioni del presente articolo sono punite con le sanzioni  previste dall’ art. 9 della presente legge.

Art. 5 
(Limiti all’uso di sistemi di identificazione biometrica)
1. Ogni singolo utilizzo di un sistema di identificazione biometrica remota “in tempo reale” in spazi pubblici è preventivamente autorizzato da un'autorità giudiziaria o amministrativa indipendente. Tale autorizzazione è rilasciata su richiesta motivata e in conformità alle regole dettagliate del diritto nazionale. 
2. L’utilizzo dell’I.A. da parte delle forze dell’ordine è consentito per:
a.    Ricerca mirata di potenziali vittime di reato: questo include la ricerca di individui specifici, compresi i minori scomparsi, al fine di proteggere la loro sicurezza e benessere;
b.    Prevenzione di minacce imminenti: l'utilizzo dei sistemi di identificazione biometrica è consentito per prevenire una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone o per prevenire un attacco terroristico;
c.    Individuazione e persecuzione di criminali: gli strumenti di identificazione biometrica possono essere utilizzati per individuare, localizzare, identificare o perseguire autori o sospettati di reati punibili con pene o misure di sicurezza privative della libertà della durata minima di almeno tre anni.
Art. 6 
(Obblighi di trasparenza)
1. E’ fatto obbligo di informare l’utenza che interagisce con un prodotto o sistema di I.A. nei casi in cui :  
a.    gli utilizzatori siano esposti a prodotti che generano o manipolano immagini, contenuti audio o video che assomigliano sensibilmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero falsamente apparire come autentici o veritieri (deep fake);
b.    tale interazione comporti il riconoscimento delle emozioni o la categorizzazione biometrica. 
2. Per i produttori e fornitori di servizi e sistemi di I.A., si fa obbligo di segnalare i contenuti prodotti da I.A. mediante 
a.    apposito contrassegno per testi, immagini o video;
b.    segnalazione acustica per  contenuti audio.
Art. 7
(Regole per i fornitori di prodotti di I.A. ad alto rischio)
1. Si fa obbligo per i fornitori dei prodotti di I.A. ad alto rischio di adottare le seguenti regole:
a.    Uso di un sistema per valutare e contrastare il rischio, con un aggiornamento costante e sistematico, sia in fase di costruzione del sistema che successivamente alla sua immissione sul mercato;
b.    Gestione dei dati affinché siano di alta qualità, poiché più alta è la qualità dei dati, più bassi sono i rischi per i diritti fondamentali e il rischio di esiti discriminatori;
c.    Adozione di documentazione tecnica che fornisca tutte le informazioni necessarie per valutare la conformità del sistema ai requisiti e per consentire alle autorità di valutare tale conformità;
d.    Conservazione della documentazione tramite registri per garantire la tracciabilità dei risultati;
e.    Supervisione umana per controllare e minimizzare il rischio.
2. I fornitori di prodotti o sistemi di I.A. hanno l’obbligo di istituire e documentare, successivamente all’immissione sul mercato, un sistema di monitoraggio che deve essere proporzionato alla natura delle tecnologie di intelligenza artificiale utilizzata e al livello del rischio.
Art. 8 
(Autorità di controllo e regole sul monitoraggio e sulla sorveglianza del mercato)
1. Il Ministero delle Imprese e del Made in Italy ( MIMIT) individua un’autorità nazionale di controllo tra le autorità nazionali competenti. Questa agisce in qualità di autorità di notifica e di autorità di vigilanza del mercato.
2. L’Autorità designata agisce in piena indipendenza secondo criteri di trasparenza e imparzialità, con azioni proprie e in coordinamento con altre autorità competenti.
3. L’Autorità è responsabile dello sviluppo, della supervisione e del monitoraggio dei progetti derivanti dal Programma Strategico per l’IA- 2022-24 , così come di progetti relativi allo sviluppo normativo dell’intelligenza artificiale e dei suoi possibili usi.
Art. 9 
(Copertura finanziaria)
Sono stanziati per l’anno in corso 3.000.000 di euro per l’avviamento dell’organo di notifica e controllo e per il finanziamento della dotazione organica dell’Autorità designata che, a secondo della struttura preesistente, potrebbe rappresentare da 1 a 25 unità a tempo pieno.
Art. 10
(Sanzioni)
1. Si fa obbligo che le seguenti violazioni siano soggette a sanzioni amministrative pecuniarie fino a 30 000 000 di EUR o, se l'autore del reato è una società, fino al 6 % del fatturato totale annuo dell'esercizio precedente, se superiore:
1.    Inosservanza del divieto delle pratiche di I.A. di cui all'articolo 4 della presente legge;
2.    La non conformità del sistema di I.A. ai requisiti o agli obblighi previsti dalla presente legge. Questa violazione è soggetta a sanzioni amministrative pecuniarie fino a 20 000 000 di EUR o, se l'autore del reato è una società, fino al 4 % del fatturato totale annuo dell'esercizio precedente, se superiore;
3.    La fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti. Questa violazione è soggetta a sanzioni amministrative pecuniarie fino a 10 000 000 di EUR o, se l'autore del reato è una società, fino al 2 % del fatturato totale annuo dell'esercizio precedente, se superiore. 
2. Nello stabilire l'importo della sanzione amministrativa pecuniaria in ogni singolo caso, si tiene conto di tutte le circostanze pertinenti della situazione specifica e di quanto segue:
a.    La natura, la gravità e la durata della violazione e delle sue conseguenze;
b.    Se altre autorità di vigilanza del mercato hanno già applicato sanzioni amministrative pecuniarie allo stesso operatore per la stessa violazione;
c.    Le dimensioni e la quota di mercato dell'operatore che ha commesso la violazione.

Approfondimento

Indice
1.    Approfondimento normativo
1.1.    L’AI Act
1.2.    Raccomandazioni Unesco dell’uso etico dell’IA
1.3.    Legislazione negli USA  
1.4.    Legislazione in Cina
2.    Approfondimento tematico
2.1.    Potenzialità
2.2.    Ambiti di applicazione
2.3.    Rischi
3.    Bibliografia e Sitografia
1.Approfondimento normativo
L’approfondimento normativo ha lo scopo di ricostruire l’evoluzione storico-giuridica delle norme che, a vario titolo, regolano l’IA nei diversi paesi del mondo.
1.1.L’AI Act
Riguardo l’IA, la legge italiana (1) presenta un vuoto legislativo e  le norme vigenti sono quelle stabilite dalla Ue e  contenute nel Regolamento europeo denominato  AI Act. Tale regolamento, la cui redazione è durata circa cinque anni e che è stato approvato definitivamente dal Parlamento Europeo in data  13-03-2024, concerne un insieme di norme e di regole che hanno il compito di definire i limiti nell’utilizzo dell’IA, allo scopo di regolarne la diffusione e prevenire i danni derivanti da una gestione errata di tali tecnologie. Nel testo dell’AI Act ci sono 85 articoli e 9 allegati che ruotano intorno al concetto di “rischio” applicato all’adozione di tecnologie del genere e definiscono quattro categorie di pericolo: inaccettabile, alto, limitato, minimo. Sono considerati inaccettabili, e quindi  vietati, i prodotti di IA che utilizzano tecniche subliminali, sistemi di punteggio sociale e sistemi di identificazione biometrica remota in tempo reale. Il rischio viene invece considerato alto se vi è un rischio significativo di danno per la salute, la sicurezza e i diritti fondamentali delle persone e, a tal proposito, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e utilizzabili solo se autorizzati e con precisi limiti temporali e geografici. Se invece non vi sono rischi particolari, si parla di rischio limitato e sono richiesti solo alcuni requisiti, come la trasparenza, mentre per videogiochi o filtri antispam il rischio è minimo e l’utilizzo è libero.
Inoltre: 1.-tutti i sistemi di IA devono rispettare specifici obblighi di trasparenza verso gli utenti; 2.- la responsabilità primaria è a carico dei fornitori di sistemi di IA; 3.-le aziende che utilizzano l’IA in ambiti come l’istruzione devono condurre una valutazione di conformità preliminare e soddisfare un elenco di requisiti per la sicurezza del sistema. Per gli  ambiti di applicazione considerati nel Regolamento si rimanda al paragrafo seguente 2.2.  
Nota 1) La legislazione in tale ambito è in continua e costante evoluzione a causa dell’estrema attualità della tematica e della rapida evoluzione delle tecnologie. A tal proposito si ricorda che l’11 marzo 2024, il sottosegretario Alberto Baranchini ha presentato al Presidente del Consiglio, Giorgia Meloni, in prospettiva di un Ddl, la relazione della Commissione governativa per  l’IA.
1.2.Raccomandazioni Unesco dell’uso etico dell’IA
Numerosi sono i documenti pubblicati dall’'UNESCO sull'importanza dell'etica e dell'educazione all’IA. Le Raccomandazioni d'uso etico dell'IA, del novembre 2021, si concentrano sulla salvaguardia dei diritti umani, sulla promozione della trasparenza,  dell'equità, in relazione all'ambiente, all'educazione e alla democrazia. Nel luglio 2023, l'UNESCO ha pubblicato, poi, la Guida veloce a Chat GPT e all’uso dell'IA nella didattica in cui sono affrontati temi come la privacy, la necessità di normative e protocolli condivisi e la diversità di genere. Nel settembre 2023, l'UNESCO ha diffuso la Guida all'IA generativa nella Didattica e nella Ricerca, che esamina i rischi e le sfide legati all'IA generativa, mette in evidenza la necessità di consapevolezza da parte di ricercatori, insegnanti e studenti sui potenziali impatti dell’IA, sottolineando anche i problemi relativi alla povertà digitale e alla manipolazione delle informazioni (deepfake e fake news).
1.3.Legislazione negli USA
Ad oggi, nel mondo ci sono numerose norme e/o proposte di regolamenti con un quadro giuridico molto frammentario. Gli Usa non hanno una regolamentazione generale e, rispetto all’Europa, sono molto più permissivi. Perfino la privacy è oggetto di contrattazione. Lo scienziato informatico Stephen Thaler aveva proposto la registrazione di un'opera bidimensionale da attribuire al nome di Creativity Machine, ovvero l'algoritmo IA che l'aveva realizzata. Questa richiesta però è stata rigettata dal giudice federale di Washington, Beryl Howell, che ha confermato la decisione dell'Ufficio copyright Usa. Precedentemente diversi tribunali avevano rifiutato di riconoscere il copyright a opere senza alcun coinvolgimento umano. Negli Usa, infatti,  le opere d'arte create dall’IA non possono essere protette da copyright poiché mancano di un requisito fondamentale per la legge americana sul diritto d'autore: essere un prodotto della mente umana. Argomenti importanti da affrontare  saranno la quantificazione del coinvolgimento umano perché un'opera meriti di essere protetta da copyright e la valutazione dell'originalità di un’opera generata dall’IA, addestrata su preesistenti opere già protette da copyright.
1.4.Legislazione in Cina
Lo Stato cinese è stato, a livello globale, il primo paese che si è impegnato nello sviluppo dell’IA. Infatti la Cina ne ha promosso attivamente lo sviluppo con varie iniziative politiche. Nel 2017 il Consiglio di Stato ha pubblicato il "Piano di sviluppo dell’intelligenza artificiale di prossima generazione", in cui se ne delineano gli obiettivi strategici. Nel 2023 il Ministero della Scienza e della Tecnologia ha lanciato un’implementazione speciale di "AI for Science" per accelerare l’innovazione e promuovere l’applicazione ad alto livello dell’IA nei settori fondamentali. Nel piano industriale cinese "Made in China 2025" si afferma che l’obiettivo della Cina è quello di diventare un leader globale nell’IA entro il 2030. Tali misure evidenziano anche l’impegno del governo nello sviluppo di un sistema di IA sicuro e affidabile. Le misure attribuiscono ampie responsabilità ai fornitori di servizi di IA generativa, tra cui il dovere di intraprendere azioni immediate in caso di contenuti illegali e la segnalazione alle autorità di regolamentazione. Inoltre si deve assicurare la salvaguardia dei diritti degli utenti e la garanzia della protezione delle informazioni personali. Di rilevante importanza è la protezione dei diritti di proprietà intellettuale coinvolti nei processi di formazione di IA generativa. Fornitori e utenti di servizi che sfruttano questa tecnologia sono tenuti a garantire che l’elaborazione dei dati avvenga in maniera lecita e nel rispetto di tutti i diritti di proprietà intellettuale interessati. Ciò pone le basi per proteggere segreti commerciali, evitare pratiche di monopolio e concorrenza sleale sfruttando algoritmi, dati, piattaforme digitali. In Cina il problema principale rimane comunque la censura. Le autorità hanno chiesto ai colossi tecnologici del paese di non permettere l’accesso a Chat GPT per paura che questo possa fornire risposte non censurate a domande politicamente sensibili.
2. Approfondimento tematico
Il nostro disegno di legge si propone di regolamentare l’IA, ovvero l’abilità di una macchina di simulare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. L’IA permette ai sistemi di rispondere in modo appropriato al contesto,  di risolvere problemi e di agire con un obiettivo specifico.
2.1.Potenzialità di IA
Le applicazioni di IA sono molteplici e riguardano diversi ambiti non solo industriali, ma anche domestici: analizzare dati specifici per estrapolare informazioni e compiere azioni di conseguenza; erogare servizi per un individuo in base a comandi vocali o testuali ricevuti; elaborare il linguaggio con finalità che possono variare dalla comprensione del contenuto, alla traduzione, fino alla produzione di testo in modo autonomo; riconoscere persone attraverso dati biometrici; estrarre informazioni dall’immagine; condurre mezzi di trasporto autoguidati. Nell’ambito medico si  potrebbero inserire sistemi di IA che definiscono la diagnosi sulla base di dati clinici dei pazienti, così che i medici prendano decisioni in modo più rapido. Nel settore del Marketing si potrebbero invece introdurre algoritmi che analizzano il comportamento degli utenti e li guidino verso la finalizzazione dell'acquisto. I sistemi di IA possono essere utili  anche nell’ambito della logistica, per tracciare ad esempio le spedizioni e fornire assistenza al cliente. Relativamente alla Cybersecurity sono necessari algoritmi in grado di rilevare eventuali elementi non conformi o di individuare frodi.
2.2.Ambiti di applicazione
Gli ambiti  di applicazione su cui l’IA si adopera sono molteplici: potenziare la ricerca e renderla più sicura;  incentivare la nascita di nuovi percorsi lavorativi per avere più esperti nel settore tecnologico ed ottenere così più informazioni riguardanti l’I.A; monitorare il cambiamento climatico; migliorare il settore sanitario; contribuire al rafforzamento della sicurezza pubblica; migliorare la cybersicurezza, fornendo assistenza nell'intelligence relativa alle minacce; contribuire ad aumentare l'efficienza e la sicurezza dei trasporti introducendo veicoli automatizzati; migliorare l’agricoltura così da renderla sostenibile tramite l'utilizzo di robot forniti di IA, che possono aiutare gli agricoltori nella coltivazione, razionalizzando l’utilizzo di fertilizzanti, di pesticidi e di acqua per l’irrigazione, e nell’allevamento, favorendo il benessere, la produzione e la riproduzione degli animali.
2.3.Rischi
Un importante tema da affrontare, però, è quello dei rischi. Innanzitutto, si può affermare che la preoccupazione generale (oggi in diminuzione) generata da questa tecnologia è stata causata anche dalla incredibile rapidità con cui ne è avvenuto lo sviluppo negli ultimi anni. Infatti, come credono diversi esperti, non c’è alcun pericolo che ci sia equivalenza fra l’intelligenza artificiale e quella umana e che l’uomo venga sostituito dall’IA: quest’ultima, infatti, si occuperà semplicemente di svolgere alcune mansioni attualmente svolte dall’uomo. Infine, è altamente improbabile che riuscirà mai a provare sentimenti come l’essere umano è capace di fare. Fatta questa premessa, è bene sottolineare quali sono i rischi di cui è fondamentale tener conto. Il più importante fra tutti è quello della enorme disinformazione che l’IA potrebbe generare: nonostante, infatti, le fake news esistano già da decenni, con l’IA risulta molto più facile e quasi alla portata di tutti poter generare contenuti falsi come i famosi "deep fake", cioè foto, video e audio creati grazie a software di IA che, partendo da contenuti reali (come immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo, o ad imitare fedelmente una determinata voce. L’IA, quindi, non è altro che un gigantesco amplificatore di questo fenomeno che ormai sta portando ad una certa difficoltà nel capire se ciò che si ha davanti sia frutto di informazioni vere oppure no. Un altro rischio è collegato, invece, al tema della cybersecurity, visto che l’IA può essere usata per contrastare gli attacchi informatici, ma anche per crearne di nuovi. Si arriva poi a quello che forse, a lungo termine, è considerabile il pericolo maggiore: la disumanizzazione dei rapporti umani. Si ritiene infatti che alcune applicazioni dell’IA possano portare ad una condizione di solitudine e alla perdita del valore delle relazioni umane. Un esempio molto chiaro è quello dei social network, nei quali esistono sistemi (regolati proprio dall’IA) che riescono a prevedere con un’alta affidabilità ciò che l’utente desidera cercare, così da potergli fornire i contenuti desiderati gradualmente e portarlo ad un uso del social più prolungato possibile. Infine, non è affatto da sottovalutare anche il rischio della perdita delle capacità umane. Questo perché alcune delle nostre abilità, come quella della memorizzazione o quella dell’orientamento, potrebbero diminuire con l’IA, poiché non più allenate (basti pensare all’uso del navigatore). Ad esempio, si può considerare la professione del pilota d’aereo: nonostante il pilota automatico (regolato dall’IA) sarebbe capace di compiere l’intera rotta autonomamente, il pilota si occupa di alcune fasi del volo (come quella di atterraggio) per non perdere l’abilità necessaria, in caso un giorno venisse meno il funzionamento dell’IA. Sarà comunque importante tener conto dei mutamenti che avverranno nel mondo del lavoro: alcune professioni medio-alte non saranno più necessarie, ma ne sorgeranno di nuove, forse ancora neppure immaginabili.

3.Bibliografia e Sitografia
Paolo Benanti, Human in the loop. Decisioni umane e intelligenze artificiali, Mondadori, Giugno 2022
Nello Cristianini, La scorciatoia, come le macchine sono diventate intelligenti senza pensare in modo umano, Il Mulino, Febbraio 2023
Alessandro Longo, Guido Scorza, Intelligenza artificiale. L'impatto sulle nostre vite, diritti e libertà, Mondadori, Novembre 2021
Luca Mari, L'Intelligenza Artificiale di Dostoevskij, Il Sole 24 ORE, Milano, Febbraio 2024
Melanie Mitchell, L'intelligenza artificiale,  Una guida per essere umani pensanti, Einaudi, Ottobre 2022
Stefano Quintarelli (a cura di), Intelligenza artificiale. Cos'è davvero, come funziona, che effetti avrà, Bollati Boringhieri, Settembre 2020
Roberto Trinchero, Intelligenze artificiali, in  Il Quotidiano in Classe, Osservatorio Permanente Giovani-Editori, Rizzoli Education, 2023

AI Act
https://nuovoeutile.it/norme-per-lia-come-agiscono-quali-mancano/  Annamaria Testa - 30 Maggio 2023
https://www.europarl.europa.eu/doceo/document/A-9-2023-0188-AM-808-808_IT.pdf  Testo approvato dal Parlamento EU in data 13/03/2024
https://www.europarl.europa.eu/news/it/press-room/20240308IPR19015/il-parlamento-europeo-approva-la-legge-sull-intelligenza-artificiale
Comunicato stampa EU 13/03/2024
Potenzialità di IA, ambiti di applicazione, rischi
https://www.garanteprivacy.it/documents/10160/0/Deepfake+-+Vademecum.pdf/478612c7-475b-2https://www.youtube.com/watch?v=K2O0rS1NZl0 12 febbraio 2024
719-417f-869e5e66604e?version=2.0  dicembre 2020
Raccomandazioni Unesco dell’uso etico dell’IA
https://unesdoc.unesco.org/ark:/48223/pf0000381137/PDF/381137eng.pdf.multi
Unesco - 2022
Legislazione statunitense sull’intelligenza artificiale
https://www.rainews.it/articoli/2023/08/arte-generata-da-intelligenza-artificiale-non-puo-essere-protetta-da-copyright-la-sentenza-negli-usa-452616d7-5c06-45f1-8c0c-40234496c84a.html 20 Agosto 2023
Legislazione cinese sull’intelligenza artificiale
IA, così Pechino punta al primato in tutti i campi: i rischi per l’Occidente - Agenda Digitale  Gabriele Iuvinale,  Nicola Iuvinale, 21 Giugno 2023