
La voce umana rappresenta uno dei mezzi più potenti che abbiamo a disposizione per comunicare, capace di trasmettere emozioni, costruire relazioni e anche di tramandare storie e conoscenze. Con il progresso tecnologico, e in particolare con lo sviluppo dell’Intelligenza Artificiale (IA), si aprono nuovi scenari, non privi di rischi e controversie. Da un lato, questi strumenti così avanzati consentono di preservare e riprodurre fedelmente voci che appartengono al passato, come dimostrato dai podcast realizzati con la voce di Sergio Zavoli. Dall’altro lato, la stessa tecnologia mette sul campo importanti questioni etiche e di sicurezza, specialmente per quanto riguarda i minori e le loro famiglie.
L’altra faccia della medaglia riguarda purtroppo i rischi associati all’ uso improprio di questa tecnologia. L’avvocato Jacopo Marzetti, ex presidente “Comitato media e minori”, ha recentemente sollevato importanti preoccupazioni riguardo alla possibilità che l’IA venga sfruttata per scopi pericolosi, come, ad esempio, l’utilizzo di telefonate, che, simulando la voce di un parente, potrebbero portare un minore a compiere azioni per essere poi raggirato. Oggi, tecnologie avanzate permettono di simulare la voce di una persona con una fedeltà tale da rendere difficile distinguere tra reale e artificiale. Pensiamo, ad esempio, ad una falsa chiamata di un genitore che dice al figlio di venire a prenderlo a scuola, inducendolo a fidarsi di uno sconosciuto. Oppure un figlio che apparentemente chiede aiuto in una situazione di emergenza, persuadendo un genitore a inviare una ingente somma di denaro immediatamente. Tutto questo rappresenta oggi una minaccia concreta che richiede un intervento rapido e mirato.
Per affrontare questa problematica, Marzetti propone la creazione di una task force governativa che coinvolga esperti di sicurezza informatica e polizia postale, con l’obiettivo di analizzare i rischi e diffondere strategie di prevenzione. Un’azione tempestiva è necessaria per evitare che la tecnologia diventi un’arma nelle mani dei malintenzionati. Abbiamo avuto l’occasione di parlare direttamente con l’avvocato, che ha risposto alle nostre domande. Secondo lei quali sono le misure principali di prevenzione che le famiglie possono adottare per proteggersi da queste nuove deviazioni e potenzialità dell’intelligenza artificiale? «Prima di tutto è fondamentale la conoscenza di quello che è il fenomeno, quindi questo da parte delle famiglie, dei ragazzi e da parte anche delle istituzioni. Secondo tema è legato invece ai provvedimenti che possono adottare, è importante proprio alla luce anche di quello che sta succedendo fare una prevenzione anche delle famiglie dell’uso dei telefonini, non solo di cercare di darli il più tardi possibile, cercando di evitare di darli a età troppo piccole e quant’altro, ma soprattutto quello di verificare l’utilizzo di questi strumenti, verificare i dati che arrivano, verificare i soggetti che vengono coinvolti, queste sono le misure base che dovrebbero essere sempre adottate che purtroppo molte volte le famiglie non utilizzano. Quindi già da una prevenzione al vedere, verificare le notizie, si può comunque avere un bilanciamento di quelli che possono essere pericoli».
Avvocato, ritiene che la legislazione attuale sia adeguata a contrastare questo nuovo fenomeno? Oppure sono necessarie delle normative più specifiche? «Assolutamente no, ritengo che la legislazione nazionale, ma anche comunitaria e anche quella internazionale siano completamente indietro, non siano all’avanguardia per quello che riguarda il contrasto a dei rischi potenziali di questa intelligenza artificiale ed è per questo che ho proposto a livello nazionale di fare delle vere e proprie commissioni o comunque di esperti del settore coinvolgendo la polizia postale che è un’eccellenza nel nostro territorio italiano e attraverso queste commissioni, questi gruppi di lavoro ad avere il doppio specifico mandato che è uno quello di studiare, approfondire e vedere delle soluzioni che ripeto non vi sono. Successivamente anche il compito di diffondere ogni volta i risultati di questo studio, come poterlo gestire e come poterlo evitare che possono sorgere problemi, ma su questo bisogna essere tempestivi e anticipare e invece stiamo ancora molto fermi».
Quindi questa proposta di questa task force, possiamo chiamarla governativa, ha già ricevuto dei riscontri? «Io non ricopro cariche istituzionali all’interno dello Stato, quindi ho lasciato giustamente operare quelle che sono le nuove cariche istituzionali. Tuttavia, davanti a un fenomeno così importante e davanti allo Stato non ho sentito interventi in materia, ma più relativi agli adulti, alle truffe e quant’altro. Quindi ho ritenuto sensibilizzare la figura politica e l’opinione pubblica sul tema in modo da fare una sorta di prevenzione di quello che può essere un fenomeno che purtroppo, come ho detto, è concreto e molto rischioso».
E infine, quale ruolo secondo lei dovrebbero avere le aziende tecnologiche che si occupano di intelligenza artificiale nello sviluppo di soluzioni per la prevenzione e il contrasto di queste frodi vocali, possiamo chiamarle? «Allora, più che frodi è una questione di rischi connessi a degli strumenti, quello che io ho sempre sostenuto sia da garante dell’infanzia che da presidente del Comitato dei minori per quanto riguardava i social, che l’unico modo attraverso il quale si può evitare dei rischi o comunque dei fenomeni non controllabili è quello della compartecipazione con le stesse aziende, con gli stessi social, in modo tale da fare squadra nell’interesse comune.
Sul lato minori sono tutti d’accordo, ovviamente, tutti quanti sono disponibili, dai social alle aziende, bisogna solo riunirsi e cercare insieme a loro di legiferare sulle proposte di queste task force, proprio per evitare che ci siano problematiche. L’interesse dei social soprattutto è quello di prevenire e di non mettere a rischio nessuno. Quindi sono sicuro che ci sarebbe una grande adesione a un progetto».
Elisa Garfagna
giornalista