15.8 C
Rome
martedì, Novembre 19, 2024
15.8 C
Rome
martedì, Novembre 19, 2024
Homeconsumare stancaParla come te l'Intelligenza Artificiale di Microsoft

Parla come te l’Intelligenza Artificiale di Microsoft

Dopo ChatGPT, la controversa IA di Microsoft che imita le voci. Il suo nome: Vall-E. IA sempre più realistiche e pericolose per la democrazia [Anthony Laurent]

Poche settimane dopo il rilascio di ChatGPT (sviluppato dalla società californiana OpenAI), Microsoft ha annunciato di aver sviluppato una nuova intelligenza artificiale (AI) in grado di imitare la voce umana. Il 5 gennaio, un team di ingegneri dell’azienda americana ha pubblicato un articolo sulla piattaforma di prepubblicazione scientifica arXiv (non ancora sottoposto a peer-review), annunciando di aver sviluppato un sistema che “supera significativamente lo stato dell’arte” nella modellazione del linguaggio.
Si tratta di una nuova tappa nello sviluppo della cosiddetta IA “generativa”, che produce automaticamente testi, immagini e suoni, e che non manca di sollevare serie questioni etiche e democratiche.
Di cosa si tratta esattamente? Vall-E è in grado di copiare e riprodurre la voce di un essere umano da un estratto sonoro di soli tre secondi. Mentre gli algoritmi di ChatGPT generano automaticamente risposte scritte dall’analisi di un enorme corpus di testi, l’ultima AI di Microsoft produce una voce sintetica trasformando il testo in un linguaggio simile a quello umano. In altre parole, è possibile fargli pronunciare qualsiasi frase imitando la voce di una persona reale, anche se questa non l’ha mai pronunciata.
Gli algoritmi di Vall-E sono stati “addestrati” su 60.000 ore di parlato in lingua inglese di oltre 7.000 parlanti diversi, “centinaia di volte in più rispetto ai sistemi esistenti”, affermano gli ingegneri della multinazionale digitale.
Vall-E è in grado di preservare l’emozione dell’oratore e l’ambiente acustico della registrazione. Questi “progressi” aumentano ulteriormente il realismo dei risultati ottenuti e allo stesso tempo contribuiscono allo sviluppo di una nuova branca dell’informatica in rapida espansione: l’affective computing. A sostegno del loro articolo, gli ingegneri hanno reso pubblici i loro primi campioni.
Quali sono le applicazioni previste di questa nuova IA in grado, secondo loro, di “sintetizzare un discorso personalizzato di alta qualità”? Editing vocale e creazione di contenuti audio, magari in combinazione con altri modelli di IA generativa come ChatGPT. I settori bancario e turistico (per personalizzare le relazioni con i clienti) o l’industria cinematografica (per creare effetti speciali) potrebbero essere interessati a questa tecnologia.
Anche se Vall-E non è ancora disponibile al grande pubblico, Microsoft – che ha appena investito più di 9 miliardi di euro in OpenAI – può aspettarsi notevoli vantaggi commerciali ed economici. “Vall-E, come ChatGPT, sono soprattutto dei dimostratori che, senza apportare alcun beneficio reale alla popolazione, permettono ai loro progettisti di attrarre fondi e quindi di essere valutati con l’obiettivo di essere acquistati ad un prezzo elevato”. E i media, parlando molto di queste tecnologie, fanno il loro gioco”, osserva Benoît Piédallu, membro de La Quadrature du Net, un’associazione che “promuove e difende le libertà fondamentali nell’ambiente digitale”, ed ex sviluppatore.
“Ethicalwashing”?
“Gli inventori dell’intelligenza artificiale amano spacciarsi per umanisti, ma il loro obiettivo, la loro fantasia, è diventare miliardari”, conferma Cédric Sauviat, politecnico e presidente dell’Associazione francese contro l’intelligenza artificiale (AFCIA).
Di fronte a una posta in gioco considerevole – OpenAI è attualmente valutata 29 miliardi di dollari – che peso ha l’etica nello sviluppo di un’IA sempre più efficiente?
Nel loro articolo, gli ingegneri di Microsoft scrivono che “poiché Vall-E è in grado di sintetizzare il parlato preservando l’identità dell’oratore, può comportare potenziali rischi di uso improprio, come lo spoofing dell’identificazione vocale o lo spoofing dell’identità di un oratore specifico”. E raccomanda che, in caso di uso pubblico, “si includa un protocollo per garantire che l’oratore approvi l’uso della sua voce e un modello per rilevare il parlato sintetizzato”.
Vera dichiarazione di principio o “ethicalwashing”? Per Sylvain Petitjean, presidente del Comitato operativo per la valutazione dei rischi legali ed etici (Coerle) dell’Istituto nazionale francese per la ricerca in scienza e tecnologia digitale (Inria), “tutte le grandi aziende tecnologiche devono d’ora in poi presentarsi come etiche. Per loro è una casella da spuntare.

Trucchi audio, notizie false, truffe…

Per Cédric Sauviat, “è una questione di cose che portano a un’altra. Creando IA quasi indistinguibili dagli esseri umani e, allo stesso tempo, strumenti progettati per contrastarne l’uso improprio, producono il veleno e l’antidoto che permette loro di vincere sempre. E aggiunge: “Oggi gli ingegneri di Microsoft suggeriscono di utilizzare sistemi per rilevare l’uso improprio della loro tecnologia, ma domani sarà ancora così?
Un’opinione condivisa da Bertrand Pailhès, direttore della tecnologia e dell’innovazione presso la Commissione nazionale francese per l’informatica e le libertà civili (CNIL), che ha appena creato un dipartimento dedicato all’IA: “Le protezioni tecnologiche sono efficaci per un certo periodo. Chi può prevedere che i progressi fatti nel campo dell’IA generativa non saranno mai ripresi da altre persone meno intenzionate?
Nel mirino: i deepfake vocali, falsi audio ultra-realistici che, come le loro controparti video, possono essere utilizzati per creare informazioni false a scopi malevoli. Discorsi falsi di personaggi politici, truffe finanziarie come la “truffa del presidente”, hacking, crimini informatici… Come nel caso di ChatGPT, un’IA che è stata dirottata non appena è stata messa online, i rischi di manipolazione con software come Vall-E sono “estremamente elevati”, secondo Benoît Piédallu.
“Questi potentissimi algoritmi di editing dei contenuti sono destinati a diventare sempre più accessibili e facili da usare, il che avrà ripercussioni drammatiche sulla vita democratica”, prevede il rappresentante di La Quadrature du Net.
Questa analisi è in parte condivisa da Jean-Gabriel Ganascia, informatico e membro del Comitato Nazionale di Etica Digitale (CNPEN): “Nella nostra società dell’informazione c’è il rischio reale che le informazioni reali vengano annegate in un mare di informazioni false. E l’ex presidente del comitato etico del CNRS ha aggiunto: “Anche se riusciamo a dimostrare la manipolazione a posteriori, il danno sarà stato fatto, perché il dubbio sarà stato instillato nella mente delle persone, soprattutto nelle popolazioni non abituate a queste nuove tecnologie.
Cosa possono fare i legislatori di fronte ai progressi dell’IA? “In generale, i politici hanno difficoltà a vedere i rischi. Sono affascinati da queste tecnologie provenienti dalla Silicon Valley. Per loro è il futuro”, risponde subito Benoît Piédallu. Lo Stato, tuttavia, dovrebbe considerarli estremamente pericolosi in termini di manipolazione di massa e vietarli.
Il peggio non è mai certo, quindi non sono sicuro che il divieto sia la soluzione, soprattutto perché avvocati e legislatori non sempre hanno una conoscenza dettagliata di cosa sia l’IA”, afferma Jean-Gabriel Ganascia, che insiste sull’ambivalenza della tecnologia. Per sua natura, la legislazione può intervenire solo a posteriori, a seconda del modo in cui le nuove tecnologie vengono utilizzate socialmente, nel bene e nel male.
Nel 2023 l’Unione Europea adotterà un regolamento per disciplinare lo sviluppo e l’utilizzo dell’intelligenza artificiale, il cosiddetto “AI Act”. “Uno dei suoi obiettivi è quello di vietare l’uso di sistemi di intelligenza artificiale per manipolare il comportamento e le opinioni dei cittadini. Ma con la proliferazione degli strumenti di IA generativa – ne sono stati annunciati una dozzina per quest’anno – è molto probabile che, una volta votato, questo testo diventi rapidamente obsoleto”, modera Sylvain Petitjean.
Il presidente di Coerle vuole comunque credere in un “effetto Bruxelles”, secondo il quale la legislazione europea detta il ritmo in termini di regolamentazione internazionale – sull’esempio di quanto accaduto con il Regolamento generale sulla protezione dei dati (GDPR), entrato in vigore nel 2018.
Per Bertrand Pailhès, la situazione è chiara: “Le questioni etiche sollevate dall’IA generativa non sono prese in considerazione nelle disposizioni legislative e legali”. Una delle ragioni è l’impossibilità di comprendere il funzionamento intrinseco dei sistemi di intelligenza artificiale e di anticiparne lo sviluppo futuro. “Per definizione, è impossibile prevedere i risultati di un sistema di IA, come dimostrano, ad esempio, i problemi che si sono già verificati con le auto autonome. Questi sistemi sono vere e proprie scatole nere che non riusciamo a comprendere”, afferma Benoît Piédallu.

Un trattato internazionale di non proliferazione?

“È vero che il lato negativo dell’efficacia dell’IA è la sua complessità, che a volte è difficile da comprendere. Nemmeno gli ingegneri che progettano questi algoritmi possono conoscere in anticipo i risultati con certezza”, conferma Alexei Grinbaum, fisico e presidente del comitato etico digitale operativo della Commissione francese per l’energia atomica. Per lo scienziato, che è anche membro del CNPEN, “il processo legislativo sta andando molto più lentamente degli sviluppi tecnologici”.
Tuttavia, lo scienziato sottolinea l’interesse di un meccanismo dell’AI Act, attualmente in discussione al Parlamento europeo: il regime normativo delle “sandbox”, che obbligherebbe le aziende digitali a testare, in ambienti controllati, alcune delle loro IA prima della loro commercializzazione, e quindi a “procedere per gradi”.
Nel 2018, la Francia ha adottato per la prima volta una “strategia nazionale per l’intelligenza artificiale”. L’obiettivo? Per rafforzare il suo posto nella “corsa globale agli armamenti” in AI, secondo le parole dell’Eliseo. Da qui al 2025, lo Stato avrà investito un totale di non meno di 3,7 miliardi di euro per “rafforzare le capacità della ricerca francese” e per “formare e attrarre i migliori talenti dell’IA”, con l’obiettivo di “accelerare il potenziale della ricerca e dello sviluppo in un successo economico”. Una strategia confermata da Emmanuel Macron come parte del piano di investimenti “Francia 2030”.
L’Ufficio parlamentare per la valutazione delle scelte scientifiche e tecnologiche, che ha il compito di informare i parlamentari e il Senato, già in un rapporto presentato nel 2017 chiedeva “un’intelligenza artificiale controllata, utile e demistificata”.
Ma, per Cédric Sauviat, la cosa principale è altrove. “L’errore fondamentale che tutti questi organismi, come tutti i comitati etici a cui fanno riferimento, commettono costantemente è quello di negare ciò che la vita umana rappresenta e ciò che essa è profondamente. L’IA è la negazione stessa dell’uomo”, afferma.
“Uno dei pericoli degli strumenti di IA è che, spingendo troppo in là il loro realismo e antropomorfismo, si finisca per cancellare le differenze di status tra uomo e macchina”, avverte Sylvain Petitjean. Di fronte all’annunciata crescita di potenza e all’impennata dell’IA, nonché al potere demiurgico che i suoi futuri sviluppi conferiranno a chiunque la possieda (Stati, multinazionali, gruppi terroristici, ecc.), il presidente dell’AFCIA ne invoca la pura e semplice proibizione, al posto delle “fabbriche di gas” etiche.
Prima di ciò, “come per le armi nucleari o le armi autonome, deve essere implementato un trattato internazionale sulla non proliferazione dei sistemi di intelligenza artificiale”. L’IA non deve proliferare”, insiste Cédric Sauviat.
“Finché coloro che progettano e commercializzano queste tecnologie non saranno ritenuti penalmente responsabili delle loro conseguenze dannose sulla società, non ci sarà consapevolezza”, afferma Benoît Piédallu, secondo il quale con l’IA “abbiamo aperto il vaso di Pandora”.

1 COMMENT

  1. […] Poche settimane dopo il rilascio di ChatGPT (sviluppato dalla società californiana OpenAI), Microsoft ha annunciato di aver sviluppato una nuova intelligenza artificiale (AI) in grado di imitare la voce umana. Il 5 gennaio, un team di ingegneri dell’azienda americana ha pubblicato un articolo sulla piattaforma di pre pubblicazione scientifica arXiv (non ancora sottoposto a peer-review), annunciando di aver sviluppato un sistema che “supera significativamente lo stato dell’arte” nella modellazione del linguaggio.continua inhttps://www.popoffquotidiano.it/2023/02/05/parla-come-te-lintelligenza-artificiale-di-microsoft-parl… […]

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Ultimi articoli

Lo squadrismo dei tifosi israeliani e il pogrom immaginario

Violenza ad Amsterdam: i fatti dietro le mistificazioni e le manipolazioni politiche e mediatiche [Gwenaelle Lenoir]

Ferrarotti è morto e forse la sociologia non si sente troppo bene

Vita e opere dell'uomo, morto il 13 novembre a 98 anni, che ha portato la sociologia in Italia sfidando (e battendo) i pregiudizi crociani

Un Acropoli che attraversa una città, recitando

A Genova va in scena, per la quindicesima edizione, il Festival di Teatro Akropolis Testimonianze ricerca azioni

Maya Issa: «Nessun compromesso sulla pelle dei palestinesi»

L'intervento della presidente del Movimento Studenti Palestinesi in Italia all'assemblea nazionale del 9 novembre [Maya Issa]

Come possiamo difenderci nella nuova era Trump

Bill Fletcher, organizzatore sindacale, sostiene che ora “il movimento sindacale deve diventare un movimento antifascista”. [Dave Zirin]