Proposta di legge sulla clonazione vocale con l’IA
- Pubblicato il 25 Marzo 2025
- da IS "Carlo Anti", VILLAFRANCA DI VERONA (VR)

- Relazione
- Testo presentato
- Emendamenti
- Testo finale
Onorevoli Senatori! Stiamo vivendo un periodo di enormi cambiamenti e di progressi tecnologici sempre crescenti. L’intelligenza artificiale è entrata in moltissimi campi e non sempre la sua applicazione ha risvolti positivi. Il 10 agosto del 2024 il Parlamento europeo ha approvato un testo che disciplina l’uso dell’intelligenza artificiale al fine di promuovere e regolamentare la sua applicazione e al contempo garantire la sicurezza e la tutela dei diritti fondamentali dei cittadini. Siamo in attesa dell’approvazione da parte del consiglio Europeo e si prevede l’entrata in vigore per tutti gli stati membri nel 2026. La nostra attenzione si è soffermata su un aspetto particolare dell’intelligenza artificiale che è la clonazione della voce. L’idea nasce a seguito della partecipazione di un nostro compagno al Next Gen Ai Summit, il primo grande evento nazionale dedicato all’intelligenza artificiale nel mondo della scuola. In tale occasione intervenne il filosofo Luciano Floridi, il quale affermo che l’IA è un’entità che agisce senza comprendere. Il vero pericolo non è la tecnologia in sé, ma il nostro fallimento nel governarla. Dobbiamo costruire un design concettuale che protegga l’umanità da se stessa. Siamo partiti da qui. La proposta di legge, pertanto, affronta la necessità di colmare le attuali lacune legislative in tema di clonazione vocale, in modo da assicurare una protezione adeguata dei diritti individuali nell’era digitale, caratterizzata dalla diffusione di tecnologie invasive. Il nostro obiettivo è quello di strutturare una legge che possa rispondere ad un duplice utilizzo: tutelare il diritto esclusivo dell'individuo sull'uso della propria voce e contrastare i rischi legati all'abuso dell’IA in ambito vocale. La clonazione vocale, infatti, non solo può essere utilizzata per modificare il contenuto di dichiarazioni pubbliche o private, ma presenta anche gravi pericoli legati alla manipolazione dell’identità e all’inganno, arrecando danni materiali e psicologici a chi ne è vittima. La clonazione vocale, infatti, non solo può essere utilizzata per modificare il contenuto di dichiarazioni pubbliche o private, ma presenta anche gravi pericoli legati alla manipolazione dell’identità e all’inganno, arrecando danni materiali e psicologici a chi ne è vittima. Il testo di legge che presentiamo propone una serie di misure atte a regolamentare l'uso della clonazione vocale, e rendere l’ambiente digitale si sicura applicazione. In dettaglio, la proposta è incentrata sul consenso esplicito. Nessuna registrazione o clonazione della voce di un individuo potrà avvenire senza il suo consenso preventivo e documentato. Questo consenso dovrà essere ottenuto tramite una procedura chiara e facilmente comprensibile, in cui l’individuo sia pienamente informato sugli scopi dell’utilizzo della sua voce. Si prevede la creazione di un organismo nazionale indipendente, con il compito di monitorare l’uso delle tecnologie di IA in relazione alla clonazione vocale. Il Ministero dovrà sviluppare e mantenere un’applicazione ufficiale tramite la quale i cittadini potranno segnalare qualsiasi utilizzo non autorizzato della loro voce, consentendo una rapida risposta da parte delle autorità competenti.
La proposta di legge si compone di 6 art.:
Art. 1 – Definizione di Intelligenza Artificiale
Art. 2 – Divieto di utilizzo improprio dell’Intelligenza Artificiale
Art. 3 – Obbligo di trasparenza
Art. 4 – Sanzioni amministrative
Art. 5 – Sanzioni penali
Art. 6 – Misure preventive
Per realizzare una proposta di legge rispondente alle reali esigenze abbiamo pensato di effettuare delle interviste a coloro che in diversi campi iniziano a confrontarsi con le diverse applicazioni dell’intelligenza artificiale. In particolare abbiamo effettuato una doppia intervista al nostro Dirigente Scolastico e al Preside dell’istituto Tecnico “Bolisani” sempre di Villafranca. Abbiamo avuto la possibilità di intervistare il Capitano dei Carabinieri di Villafranca che ci ha illustrato le loro esperienze.
Invitiamo gli onorevoli senatori a visionare i link allegati, esaminare e votare la seguente proposta di legge, certi della consapevolezza dell’importanza di disciplinare correttamente tale materia.
https://www.dropbox.com/scl/fo/aiwkd1zdtmv26kln95v7l/AHwgp32drhFGdU_Ly0snO2o?rlkey=axirh9h2ms928nmfj48jtihp2&st=2f1tpr4m&dl=0
Proposta di Legge
Art. 1 – Definizione di Intelligenza Artificiale
Ai fini del presente decreto, si intende per Intelligenza Artificiale (IA):
1.la capacità di un computer, tramite particolari tecnologie software, di svolgere compiti che di solito vengono eseguiti da esseri umani e di imitare le capacità di risoluzione dei problemi e decisioni della mente umana;
2. l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.
Art. 2 – Divieto di utilizzo improprio dell’Intelligenza Artificiale
È vietata la creazione, diffusione e utilizzo di contenuti generati tramite l’Intelligenza Artificiale che:
1. riproducano in modo ingannevole la voce o il volto di terzi senza il loro consenso esplicito e verificabile; minacciano la sicurezza personale e pubblica;
2. manipolino o influenzino l’opinione pubblica, attraverso la diffusione di informazioni false;
Art. 3 – Obbligo di trasparenza
Tutti i soggetti, pubblici o privati, che utilizzano l’Intelligenza Artificiale sono obbligati a:
1. indicare in modo chiaro e visibile (ad esempio logo o nome piattaforma) che il contenuto è stato generato da un software di IA;
2. fornire informazioni sul software utilizzato;
Art. 4 – Sanzioni amministrative
1. Chiunque diffonda contenuti generati da Intelligenza Artificiale senza indicarne la natura artificiale e la provenienza è punito con una sanzione amministrativa pecuniaria da euro 500 a euro 5.000.
2. Nei casi di reiterazione della violazione, la sanzione può essere aumentata fino a euro 20.000 e può essere disposta la sospensione dell'attività commerciale o digitale per un periodo da 10 a 30 giorni.
Art. 5 – Sanzioni penali
1. Chiunque utilizzi l’Intelligenza Artificiale per commettere truffe o arrecare danni alla reputazione o sicurezza personale è punito con la reclusione da due a dieci anni e con la multa da euro 50.000 a euro 1.000.000.
2. Se il reato è commesso ai danni di minori, persone con disabilità o soggetti in condizione di fragilità, la pena si raddoppia.
Art. 6 – Misure preventive
1. Il Ministero dell’Istruzione e del Merito, in collaborazione con il Ministero dell’Innovazione Tecnologica, promuove campagne educative annuali nelle scuole secondarie di primo grado, volte a informare gli studenti, le famiglie e il personale scolastico sui rischi e le opportunità legate all’utilizzo dell’Intelligenza Artificiale.
2. È prevista da parte del Ministero dell’Istruzione e del Merito dell’introduzione di una nuova disciplina curriculare per le scuole secondarie di secondo grado chiamata Intelligenza Artificiale finalizzata alla conoscenza dei metodi di utilizzo.
3. È istituita, presso la Presidenza del Consiglio dei Ministri, la Commissione Nazionale per il Monitoraggio dell’Intelligenza Artificiale, con funzioni di vigilanza e controllo sull’uso delle tecnologie IA nel territorio italiano.
4. È istituita presso la Commissione Nazionale per il Monitoraggio dell’Intelligenza Artificiale un elenco ufficiale di tutte le società che offrono servizi di intelligenza artificiale che dovranno ottenere apposite autorizzazioni nazionali.
Approfondimento
Negli ultimi anni, diversi paesi e istituzioni internazionali hanno iniziato a sviluppare normative e linee guida per regolamentare l'uso dell'IA, con l'obiettivo di garantire sicurezza, trasparenza e rispetto dei diritti umani. L'Unione Europea ha proposto il "Regolamento sull'intelligenza artificiale" (AI Act), che mira a creare un quadro normativo armonizzato per l'uso dell'IA, distinguendo tra sistemi a rischio elevato e a basso rischio, e imponendo requisiti specifici per quelli più delicati. Questa proposta rappresenta uno dei primi tentativi concreti di regolamentare l'IA a livello globale. Sebbene la maggior parte dei sistemi di IA non presenti rischi e possa contribuire a risolvere molte sfide sociali, alcuni sistemi di IA creano rischi che dobbiamo affrontare per evitare risultati indesiderati. Ad esempio, spesso non è possibile scoprire perché un sistema di IA ha preso una decisione o una previsione e ha intrapreso una particolare azione. Pertanto, può diventare difficile valutare se qualcuno sia stato ingiustamente svantaggiato, ad esempio in una decisione di assunzione o in una domanda di un regime di pubblica utilità. Sebbene la legislazione vigente offra una certa protezione, non è sufficiente per affrontare le sfide specifiche che i sistemi di IA possono comportare. Il regolamento attualmente in vigore presenta i seguenti contenuti:
Classificazione dei rischi: suddivide le applicazioni di AI in diverse categorie di rischio (alto, medio, basso), con requisiti più stringenti per quelle considerate ad alto rischio. Requisiti di sicurezza e trasparenza: impone che i sistemi di AI siano sicuri, trasparenti e che gli utenti siano informati quando interagiscono con un'AI. Valutazione della conformità: le aziende devono effettuare valutazioni di conformità prima di mettere sul mercato sistemi di AI ad alto rischio. Sorveglianza e conformità: istituisce autorità di vigilanza nazionali e un sistema di sorveglianza per garantire il rispetto delle regole. Proibizioni: vieta alcune pratiche di AI considerate particolarmente rischiose o eticamente inaccettabili, come l'uso di sistemi di sorveglianza di massa o di manipolazione psicologica. Sanzioni: prevede multe e sanzioni per chi non rispetta le norme.
Anche altri paesi, come gli Stati Uniti e la Cina, stanno sviluppando proprie normative e linee guida, spesso focalizzate su aspetti come la privacy, la sicurezza e l'etica. In Italia non esiste un regolamento specifico sull’intelligenza artificiale.
La legge sull'IA definisce 4 livelli di rischio per i sistemi di IA:
1)Rischio inaccettabile Tutti i sistemi di IA considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone sono vietati. La legge sull'IA vieta otto pratiche, vale a dire: manipolazione e inganno dannosi basati sull'IA sfruttamento dannoso delle vulnerabilità basato sull'IA punteggio sociale Valutazione o previsione del rischio di reato individuale raschiatura non mirata di materiale di Internet o CCTV per creare o espandere database di riconoscimento facciale riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione categorizzazione biometrica per dedurre determinate caratteristiche protette identificazione biometrica remota in tempo reale a fini di contrasto in spazi accessibili al pubblico
2) Rischio elevato. I casi d'uso dell'IA che possono comportare gravi rischi per la salute, la sicurezza o i diritti fondamentali sono classificati come ad alto rischio. Questi casi d'uso ad alto rischio includono:
Componenti di sicurezza dell'IA nelle infrastrutture critiche (ad esempio i trasporti), il cui guasto potrebbe mettere a rischio la vita e la salute dei cittadini Soluzioni di IA utilizzate negli istituti di istruzione, che possono determinare l'accesso all'istruzione e il corso della vita professionale di una persona (ad esempio il punteggio degli esami) Componenti di sicurezza dei prodotti basati sull'IA (ad es. applicazione dell'IA nella chirurgia assistita da robot) Strumenti di IA per l'occupazione, la gestione dei lavoratori e l'accesso al lavoro autonomo (ad esempio software di selezione dei CV per l'assunzione) Alcuni casi d'uso dell'IA utilizzati per dare accesso a servizi pubblici e privati essenziali (ad esempio il credit scoring che nega ai cittadini l'opportunità di ottenere un prestito) Sistemi di IA utilizzati per l'identificazione biometrica remota, il riconoscimento delle emozioni e la categorizzazione biometrica (ad esempio un sistema di IA per identificare retroattivamente un taccheggiatore) casi d'uso dell'IA nelle attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio valutazione dell'affidabilità delle prove) Casi d'uso dell'IA nella gestione della migrazione, dell'asilo e del controllo delle frontiere (ad esempio esame automatizzato delle domande di visto) Soluzioni di IA utilizzate nell'amministrazione della giustizia e dei processi democratici (ad esempio soluzioni di IA per preparare le sentenze dei tribunali)
3) I sistemi di IA ad alto rischio sono soggetti a obblighi rigorosi prima di poter essere immessi sul mercato:
adeguati sistemi di valutazione e mitigazione dei rischi alta qualità delle serie di dati che alimentano il sistema per ridurre al minimo i rischi di risultati discriminatori registrazione dell'attività per garantire la tracciabilità dei risultati documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità ne valutino la conformità informazioni chiare e adeguate per l'operatore adeguate misure di sorveglianza umana elevato livello di robustezza, cibersicurezza e accuratezza
4) Rischio di trasparenza Ciò si riferisce ai rischi associati alla necessità di trasparenza sull'uso dell'IA. La legge sull'IA introduce obblighi di divulgazione specifici per garantire che gli esseri umani siano informati quando necessario per preservare la fiducia. Ad esempio, quando si utilizzano sistemi di intelligenza artificiale come i chatbot, gli esseri umani dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina in modo che possano prendere una decisione informata. Inoltre, i fornitori di IA generativa devono garantire che i contenuti generati dall'IA siano identificabili. Alcuni contenuti generati dall'IA dovrebbero essere etichettati in modo chiaro e visibile, vale a dire deep fake e testi pubblicati allo scopo di informare il pubblico su questioni di interesse pubblico.
Rischio minimo o nullo
La legge sull'IA non introduce norme per l'IA ritenute a rischio minimo o nullo. La stragrande maggioranza dei sistemi di IA attualmente utilizzati nell'UE rientra in questa categoria. Ciò include applicazioni come videogiochi abilitati all'intelligenza artificiale o filtri antispam. La legislazione vigente sulla clonazione vocale si sta sviluppando in modo da tutelare i diritti delle persone e prevenire usi impropri o fraudolenti di questa tecnologia. Attualmente, non esiste una normativa specifica e univoca a livello europeo o nazionale dedicata esclusivamente alla clonazione vocale, ma ci sono alcune leggi e principi che si applicano:
Protezione dei dati personali: La clonazione vocale può coinvolgere dati biometrici, che sono considerati dati sensibili secondo il GDPR (Regolamento Generale sulla Protezione dei Dati). Quindi, l'uso e il trattamento di tali dati devono rispettare le norme sulla privacy, con il consenso esplicito della persona interessata. Diritti d'immagine e di personalità: La riproduzione della voce di una persona senza autorizzazione può violare i diritti di personalità, come il diritto all'immagine e alla reputazione. Leggi contro le frodi e l'uso fraudolento: La clonazione vocale può essere usata per truffe o frodi (ad esempio, impersonare qualcuno per ottenere soldi o informazioni). In questi casi, si applicano le leggi penali contro le frodi, l'usurpazione di identità e le truffe informatiche. Normative emergenti: Con l'aumento di questa tecnologia, alcuni paesi stanno considerando o stanno già sviluppando regolamenti specifici per l'uso etico e sicuro della clonazione vocale, anche per prevenire abusi e garantire trasparenza.
In sintesi, mentre non c'è ancora una legge unica e specifica sulla clonazione vocale, l'uso di questa tecnologia deve rispettare le norme sulla privacy, i diritti di personalità e le leggi contro le frodi. È sempre importante usare questa tecnologia in modo etico e con il consenso delle persone coinvolte.
Poiché l’attuale legislazione italiana non disciplina in modo specifico l’identità vocale e il suo utilizzo da parte delle intelligenze artificiali, si propone la presente legge, che mira a: Definire legalmente la voce come parte dell’identità personale. Regolare la raccolta e l’uso di dati vocali da parte di privati e aziende. Introdurre l’obbligo di trasparenza e il consenso informato. Prevedere sanzioni per usi fraudolenti della clonazione vocale.
Bibliografia
Regolamento Unione Europea 2024/1689
Intelligenza artificiale. Politica, economia, diritto, tecnologia – Paola Severino - LUISS
Chen Qiufan - Kai-Fu Lee, Ai 2041. Scenari dal futuro dell'intelligenza artificiale
Luciano Floridi, Etica dell'intelligenza artificiale. Sviluppi, opportunità, sfide
www.lavorodirittieuropa.it
www.biodiritto.org
www.unioncamereveneto.it
www.documenti.camera.it
Diario delle attività
Titolo della proposta di legge:
Norme per la tutela dell’identità vocale nell’era dell’intelligenza artificiale
Avvio del progetto
Abbiamo scoperto il concorso “Un giorno in Senato” grazie alla nostra insegnante referente di Educazione civica e ai nostri docenti di classe di economia e diritto ma soprattutto, per la partecipazione al JOB&Orienta di Verona dove abbiamo partecipato ad una conferenza dei funzionari che ci hanno spiegato il funzionamento del Senato e la possibilità di partecipare ai Concorsi.
Dopo una discussione collettiva, la classe ha deciso di concentrarsi su un tema innovativo e attuale: la clonazione della voce tramite intelligenza artificiale. Abbiamo individuato questo fenomeno come emergente e potenzialmente rischioso per la privacy, l’identità personale e la sicurezza. Abbiamo constatato che negli ultimi anni questa forma di clonazione sta dilagando provocando problemi seri nei colori che ne incorrono.
Ricerca e documentazione
Ci siamo divisi in gruppi di lavoro:
Un gruppo si è occupato della parte tecnica, raccogliendo informazioni su come funziona la clonazione vocale e i software esistenti. Un altro gruppo ha analizzato la normativa esistente a livello italiano ed europeo, scoprendo che ci sono ancora molte lacune. Un terzo gruppo ha cercato casi reali e potenziali di abuso, come truffe telefoniche, deepfake vocali o utilizzo non autorizzato della voce di personaggi pubblici.
Discussione e stesura della proposta
Abbiamo organizzato un’assemblea di classe per condividere le ricerche e iniziare a costruire insieme la proposta di legge. Abbiamo scelto un titolo e individuato i punti principali:
Definizione giuridica di identità vocale. Necessità di consenso esplicito per la registrazione e la riproduzione della voce. Obbligo di etichettatura dei contenuti generati da IA. Sanzioni per l’utilizzo fraudolento della voce altrui.
La stesura vera e propria della proposta è stata seguita da un piccolo gruppo di redattori, con il supporto degli insegnanti.
Un ulteriore gruppo di studenti ha curato la realizzazione di interviste a due Dirigenti scolastici e al Capitano dei caarabinieri. Si è partiti dalla formulazione delle domande da sopporre agli intervistati e successivamente si è realizzata l'intervista all'interno del nostro Istituto.
Revisione e approfondimenti
Abbiamo fatto rileggere la proposta a tutto il gruppo classe, correggendo alcune formulazioni e integrando riferimenti normativi. Alcuni compagni hanno suggerito di includere anche misure educative, come campagne di informazione per studenti e cittadini.
Abbiamo simulato un dibattito parlamentare in classe, assegnando i ruoli di senatori favorevoli e contrari: è stato utile per metterci nei panni dei legislatori e rafforzare la nostra proposta. Dopo una verifica finale, abbiamo inviato tutto entro la scadenza fissata dal bando di concorso.