Dozen Blogs
  • Tecnologia
  • CONTATTI
  • Tecnologia
  • CONTATTI
01.07.2022 In Amazon, Tecnologia

Il deepfake audio tra genio, follia e… Alexa che guarda all’aldilà

Qualche giorno fa, sul web è apparsa una notizia che, nel giro di pochi click, si è trasformata in un acceso oggetto di dibattito: Amazon Alexa, la famigerata assistente vocale del colosso dell’e-commerce, farà “resuscitare i morti”. In che senso, si è domandata interdetta la maggior parte degli utenti che si sono imbattuti nell’informazione?

Eppure, la nuova funzionalità presentata alla Re:MARS Conference di Las Vegas da Rohit Prasad in persona, senior vicepresident and head scientist di Alexa (tradotto: colui che è a capo della divisione che si occupa dello sviluppo dell’assistente personale) non è uno scherzo di cattivo gusto, né un nuovo episodio di Stranger Things: gli smart speaker di Amazon saranno davvero in grado di imitare e riprodurre la voce di qualsiasi persona, inclusa quella dei propri cari passati a miglior vita.

Ma siamo sicuri che, dietro a un’innocua, sensazionalistica – seppur bizzarra – intenzione, non si annidi un’insidia potenzialmente minacciosa per noi “vivi”? Dopotutto, la nuova funzionalità Amazon ha un denominatore comune con la tecnologia deepfake, che negli anni ha sfoggiato con fierezza tutto il suo potenziale, ma anche i lati oscuri. Lo vediamo in questo articolo.

SOMMARIO

LE MIRE DI AMAZON

Dicevamo che l’obiettivo dichiarato di Amazon è “insegnare” al suo assistente vocale Alexa di riprodurre fedelmente qualsiasi voce umana proveniente da un file audio, anche di lunghezza irrisoria (meno di un minuto può essere più che sufficiente). L’azienda ha dunque intenzionalmente espresso il desiderio di offrire a chi ha subìto un lutto la possibilità di rivivere, seppur in modo fittizio, un contatto con i propri cari.

Tralasciando l’aspetto etico e i possibili risvolti psicologici di questa iniziativa, dal punto di vista tecnologico le mire di Amazon puntano a ben altro: riuscire a estrarre da pochi minuti di registrazione audio un modello vocale di buona qualità, che ricalchi con precisione il timbro e l’intonazione della sorgente, è chiaramente un passo ambizioso che, se riuscito, porterebbe a risultato ottenibile oggi senza poter prescindere da un parlato di lunghezza maggiore.

Tuttavia, come già accennato, l’imitazione così accurata di una voce umana, chiamata in gergo sintesi vocale, fa rima con un fenomeno dall’alto potere deflagrante, specie se impiegato per scopi malevoli: il deepfake, in questo caso in versione audio.

IL DEEPFAKE AUDIO

Senza addentrarci troppo nei tecnicismi, per deepfake si intende una tecnologia basata sul deep learning, costola dell’Intelligenza Artificiale, che elabora una riproduzione falsificata di un’immagine, un video o della voce di persone reali.

Sono numerosissimi i casi di deepfake diventati virali negli anni a partire dalla prima comparsa della tecnologia nel 2016, come il video che ritraeva l’ex Presidente degli Stati Uniti Barack Obama intento a denigrare, in un discorso manipolato a regola d’arte, Donald Trump. Il falso era stato realizzato dal comico e regista americano Jordan Peele per mostrare le potenzialità – e i rischi – della tecnologia, ma non si tratta di un caso isolato.

Se i video deepfake possono tradire imprecisioni o discrepanze, captabili dagli occhi più attenti e dettate in particolare da una scarsa sincronizzazione tra le immagini e il suono, nel caso dell’audio la situazione si complica, e anche un orecchio assoluto potrebbe essere più facilmente incastrabile. Di “fronte” a un’opera di deepfake audio ben riuscita, infatti, l’unica sbavatura che si potrebbe intercettare, non senza copiosi sforzi, starebbe nella differenza del tono della voce del presunto oratore, alterato da una minor qualità dell’algoritmo di sintetizzazione audio impiegato.

Essendo più camaleontico e meno distinguibile dalla realtà, l’audio deepfake risulta chiaramente più pericoloso. Il suo raggio d’azione è più ampio di quel che si pensi e capace di coprire i più disparati fronti; tra gli esempi empirici più eclatanti troviamo l’utilizzo della registrazioni di una voce umana nel corso di una conversazione telefonica per elaborare un modello vocale grazie agli algoritmi del deep learning. Una falsificazione della realtà costata cara, in passato, a un direttore di banca degli Emirati Arabi, vittima di una truffa da 35 milioni di dollari.

I RISCHI

Estorsione, fake news, truffe, divulgazione di informazioni riservate o personali sono solo alcune delle minacce velatamente veicolate da questa tecnologia. Non è un caso che le big tech si siano affrettate a circoscriverla a determinati utilizzi, come nel caso di Meta, Google, Twitter e Microsoft e altri colossi, che hanno deciso di sposare una linea più dura contro le fake news, mettendo la propria firma sul Codice di condotta aggiornato sulla disinformazione dell’Unione Europea. Tra i propositi dei firmatari, quello di impegnarsi più attivamente nella guerra ai deepfake, gli account falsi e la pubblicità politica (la non conformità porterebbe a sanzioni fino al 6% del fatturato globale dell’azienda, come affermato da un portavoce dell’UE). La stessa Microsoft, ancor prima della notizia di Alexa, ha sviluppato nuove linee guida per un utilizzo responsabile dell’Intelligenza Artificiale, con un occhio di riguardo verso i prodotti vocali.

Anche il Garante della privacy ha pubblicato una scheda informativa che sensibilizza gli utenti sui rischi e le conseguenze di un uso avverso di questa tecnologia.

È POSSIBILE SMASCHERARE UN AUDIO DEEPFAKE?

Esistono tuttavia software di AI che riescono a “smascherare” i deepfake audio e a capire se le caratteristiche di una voce reale coincidano con la traccia audio sospetta (una voce “falsata” avrebbe delle frequenze diverse da quelle di una voce umana). Alcuni rilevatori, ad esempio, mettendo a confronto un file audio “falso” con una voce reale, si affidano alle rappresentazioni grafiche delle clip audio (o meglio, dell’intensità di un suono in funzione del tempo e della frequenza), i cosiddetti spettrogrammi: a colpo d’orecchio i suoni risultano praticamente uguali ma, grazie agli spettogrammi, è possibile notare visivamente una netta differenza tra l’audio reale e quello falso.

Cadere nella sua trappola resta in ogni caso semplice, in particolare perché al giorno d’oggi è possibile ottenere risultati discreti utilizzando software e app accessibili a chiunque attraverso un banale smartphone. Programmi come Resemble AI e Descript, aperti gratuitamente al pubblico grazie alle demo online, sono un esempio calzante: basta registrare le frasi che appaiono sullo schermo e, in qualche istante, viene creato un modello della propria voce. Un gioco da ragazzi.

Il web è un valido banco di prova di questo fenomeno: se da un lato gli utenti si dilettano a utilizzare la propria voce, o il viso, per creare audio, foto o filmati deepfake ad alto grado di viralità, dall’altra aumentano i malintenzionati che fanno del deepfake una potente arma.

La cronaca lo dimostra: le ultime vittime dei cyber criminali sono stati sindaci di Berlino, Madrid e Vienna, convinti di aver partecipato a una videocall con il primo cittadino di Kiev che si è rivelata essere un pericoloso caso di deepfake.

IL POTERE DELL’INTELLIGENZA ARTIFICIALE

Che quella attuale sia l’età dell’oro dell’Intelligenza Artificiale è ormai appurato, come dimostra l’impeto rivoluzionario con cui si sta insidiando nei più disparati settori, così come nella vita di ogni giorno. A sorprendere, oltre ai progressi compiuti dalle tecnologie che la supportano (in questo caso restiamo nell’ambito delle tecniche di AI per la creazione di audio, foto o video fittizi), è il suo impatto sul meccanismo cognitivo degli esseri umani: il deepfake, spiega uno studio congiunto della Lancaster University e l’Università di Berkley, ha un incredibile potere manipolativo. Lo dimostra il fatto che gran parte degli intervistati in uno dei sondaggi abbia mostrato maggiore fiducia nei confronti dei prodotti artefatti, piuttosto che quelli reali.

Senza scendere in ulteriori riflessioni, è bene specificare che l’eticità di una tecnologia fondata sull’Intelligenza Artificiale dipenda dal fine per cui si usa. Esistono infatti anche numerosi casi virtuosi di deepfake, come le applicazioni che trova in ambito cinematografico, multimediale e artistico, che potrebbero portare all’evoluzione di tali settori.

Difficile, ad oggi, prevedere i possibili sviluppi di questa tecnologia: per ora, tra le promesse facilmente accessibili alla collettività, spicca quella di riportare in vita i defunti. La speranza è però che la funzionalità – per quanto “commovente” e “inquietante” sia – non nuoccia ai vivi.

VIDEO

[embedded content]

Altre fonti consultate per la stesura di questo articolo:

Cultur-e e Fastweb

HowtoGeek

Garante Privacy

Pnas

Articolo originale disponibile qui

Amazon Tecnologia
Previous StoryPasseggiata spaziale per Cristoforetti, con il russo Artemyev
Next StoryPapa Francesco incontra Elon Musk a Santa Marta

Related Articles

  • Marshall Middleton: lo speaker perfetto per l’estate crolla del 45%
    Marshall Middleton: lo speaker perfetto per l'estate crolla del 45%
  • La Cina testa in orbita il suo sistema operativo OpenHarmony
    La Cina testa in orbita il suo sistema operativo OpenHarmony

Articoli recenti

  • Bandai Namco Summer Showcase 2025 annunciato: ecco data e orario dell’evento
  • Il formato PNG si aggiorna dopo vent’anni: arrivano HDR, metadati e animazione
  • Gli occhiali da vista che mettono a fuoco da soli
  • I primi pannelli solari per interni, trasformano la luce delle lampadine
  • La resistenza Ú inutile

Archivi

  • Giugno 2025
  • Maggio 2025
  • Aprile 2025
  • Marzo 2025
  • Febbraio 2025
  • Gennaio 2025
  • Dicembre 2024
  • Novembre 2024
  • Ottobre 2024
  • Settembre 2024
  • Agosto 2024
  • Luglio 2024
  • Giugno 2024
  • Maggio 2024
  • Aprile 2024
  • Marzo 2024
  • Febbraio 2024
  • Gennaio 2024
  • Dicembre 2023
  • Novembre 2023
  • Ottobre 2023
  • Settembre 2023
  • Agosto 2023
  • Luglio 2023
  • Giugno 2023
  • Maggio 2023
  • Aprile 2023
  • Marzo 2023
  • Febbraio 2023
  • Gennaio 2023
  • Dicembre 2022
  • Novembre 2022
  • Ottobre 2022
  • Settembre 2022
  • Agosto 2022
  • Luglio 2022
  • Giugno 2022
  • Maggio 2022
  • Aprile 2022
  • Marzo 2022
  • Febbraio 2022
  • Gennaio 2022
  • Dicembre 2021
  • Novembre 2021
  • Ottobre 2021
  • Settembre 2021
  • Agosto 2021
  • Luglio 2021
  • Giugno 2021
  • Maggio 2021
  • Aprile 2021
  • Marzo 2021
  • Febbraio 2021
  • Gennaio 2021
  • Dicembre 2020
  • Novembre 2020
  • Ottobre 2020
  • Settembre 2020
  • Agosto 2020
  • Luglio 2020
  • Giugno 2020
  • Maggio 2020
  • Aprile 2020
  • Marzo 2020
  • Febbraio 2020
  • Gennaio 2020
  • Dicembre 2019
  • Novembre 2019
  • Ottobre 2019
  • Settembre 2019
  • Agosto 2019
  • Luglio 2019
  • Giugno 2019
  • Maggio 2019
  • Aprile 2019
  • Marzo 2019
  • Febbraio 2019
  • Gennaio 2019
  • Dicembre 2018
  • Novembre 2018
  • Ottobre 2018
  • Settembre 2018
  • Agosto 2018
  • Luglio 2018
  • Agosto 2017
  • Luglio 2017
  • Luglio 2016
  • Giugno 2016
  • Gennaio 2016

Categorie

  • Accessori
  • Acer
  • adsl
  • Alfa Romeo
  • Alpine
  • Alta Definizione
  • Amazon
  • Ambiente
  • AMD
  • android
  • antivirus
  • App
  • Apple
  • Apps
  • Articolo
  • Astronomia
  • Asus
  • Attualità
  • Audi
  • Audio e TV
  • Auto
  • Automobili
  • Bentley
  • Biotech
  • BMW
  • Bugatti
  • Business
  • BYD
  • Canon
  • cartucce
  • casio
  • Cellulari e Smartphone
  • Cinema
  • Citroen
  • cloud
  • compatibile
  • Computer
  • concorso
  • Consigli utili
  • Consumi
  • Continental
  • cover
  • Covid19
  • crittografia
  • Cultura
  • Cupra
  • Curiosità
  • custodia
  • Dacia
  • Daihatsu
  • Dell
  • Design
  • DJI
  • Dodge
  • Doogee
  • eBay
  • Ecologia
  • ecommerce
  • Economia e Mercato
  • Education
  • elearning
  • Elettriche
  • Elon Musk
  • email
  • Energia
  • epilatore
  • Epson
  • Eventi
  • f1
  • facebook
  • FCA
  • Ferrari
  • Fiat
  • Finanza
  • Fisker
  • Food
  • Ford
  • fotocamere
  • fotografia
  • Fotografia digitale
  • Fumetti
  • Games
  • gaming
  • General Motors
  • Gigabyte
  • Giochi
  • giochi online
  • GoDaddy
  • Google
  • GoPro
  • Green
  • guida
  • guide
  • Guide Acquisto
  • Hardware
  • Hisense
  • Honda
  • Honor
  • hosting
  • HP
  • HTC
  • Huawei
  • Hyundai
  • Indossabili
  • Informatica
  • Intel
  • internet
  • iOs
  • ipcamera
  • Jaguar
  • Kia
  • Lab
  • Lamborghini
  • Lancia
  • Land Rover
  • Lavoro
  • Lenovo
  • Lexus
  • LG
  • Libri
  • Linux
  • Lotus
  • luce pulsata
  • malware
  • marketing
  • marte
  • Maserati
  • Mazda
  • Media
  • Medicina
  • mercedes
  • Mercedes Benz
  • Mesh
  • messenger
  • MG
  • Michelin
  • Microsoft
  • Mini
  • Mobile
  • Mondo Apple
  • Mondo Motori
  • monitor
  • Moto
  • Motori
  • motorola
  • Motorsport
  • MSI
  • Musica
  • nasa
  • News
  • Nikon
  • Nintendo
  • NIO
  • Nissan
  • Nokia
  • Notebook
  • Nothing
  • Notizie di astronomia
  • Notizie di tecnologica
  • Nubia
  • nuove frequenze
  • Nvidia
  • obiettivo
  • occhiali
  • Offerte
  • on demand
  • OnePlus
  • Opel
  • Oppo
  • orologio
  • ottimizzazione
  • Outdoor
  • Pagani
  • Panasonic
  • Peugeot
  • Philips
  • phishing
  • Poco
  • poker
  • Politica
  • Porsche
  • Portatili
  • posta elettronica
  • PrestaShop
  • Prodotti audio e video
  • Prove prodotti
  • Prove software
  • PSA
  • Qualcomm
  • ragno
  • Razer
  • Realme
  • recensione
  • Redmi
  • reflex
  • Regole
  • Renault
  • Risorse dal web
  • robot
  • Rolls Royce
  • router
  • Rumor
  • Salute
  • Samsung
  • Scienza
  • script
  • scuola
  • Seat
  • segnale tv
  • segnale tv 2022
  • Senza categoria
  • Seo
  • Sharp
  • sicurezza
  • sigma
  • siti web
  • Skoda
  • Smart
  • Smart Home
  • smartphone
  • smartwatch
  • sms
  • Social
  • Social Network
  • software
  • sofware
  • Sony
  • Sostenibilità
  • Spazio
  • Speciale
  • Sponsor
  • Sport
  • SsangYong
  • stampanti
  • Startup
  • streaming
  • Subaru
  • Suzuki
  • Tablet
  • Tariffe
  • TCL
  • Tech
  • Tech Recensioni
  • TECNO
  • Tecnologia
  • Tesla
  • Tips and Tricks
  • TLC
  • Toshiba
  • Toyota
  • Tutorial
  • Tv
  • tv dvb
  • Unieuro
  • Utilità
  • Viaggi
  • Video Recensione
  • Videogiochi
  • videosorveglianza
  • vivo
  • Vodafone
  • Volkswagen
  • Volvo
  • Web
  • WiFi
  • Wiko
  • windows
  • Windows 10
  • wireless
  • Wordpress
  • Xiaomi
  • Yamaha
  • zaino
  • zimbra
  • ZTE
  • Tecnologia
  • CONTATTI

All Rights Reserved Copyright © 2015 - 2021 DozenBlogs by Anna Maria Turola 00041 Albano Laziale (RM)  |   Cookie & Privacy Policy   |  info@dozenblogs.com

to top button
Gestisci Consenso Cookie
Usiamo cookie per ottimizzare il nostro sito web ed i nostri servizi.
Cookie funzionali Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici. L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.
Gestisci opzioni Gestisci servizi Gestisci {vendor_count} fornitori Per saperne di più su questi scopi
Visualizza preference
{title} {title} {title}