Type to search

OpenAI: Voice Engine clona voci, non sarà rilasciata a pubblico

Share

La società di intelligenza artificiale OpenAI ha dichiarato che attraverso il suo modello Voice Engine è in grado di clonare le voci umane riproducendo un suono naturale “emotivo e realistico”, utilizzando un campione di 15 secondi, ma che non intende ancora rilasciare la tecnologia al pubblico perché sarebbe troppo rischioso. “Riconosciamo che generare un discorso che assomigli alla voce delle persone comporta seri rischi, particolarmente importanti in un anno di elezioni”, hanno dichiarato i creatori di ChatGPT in un comunicato.
Voice Engine è un nuovo modello di intelligenza artificiale in grado di convertire il testo in parlato per creare voci sintetiche che, secondo l’azienda, possono consentire ai creatori di contenuti di tradurre il loro lavoro in altre lingue senza perdere l’accento nativo e aiutare le persone con problemi di comunicazione verbale a usare la voce, ad esempio, per fare telefonate. In uno degli esempi forniti dall’azienda, è possibile ascoltare come la voce di una donna anglosassone sia stata tradotta in spagnolo, mandarino, tedesco, francese e giapponese mantenendo l’accento della persona. Al momento, le aziende che possono accedere a questa tecnologia sono la società di tecnologie per l’istruzione Age of Learning, la piattaforma di visual storytelling HeyGen, il produttore di software per la sanità Dimagi, il produttore di app di comunicazione con intelligenza artificiale Livox e il sistema sanitario Lifespan.
“Stiamo adottando un approccio cauto e informato a una pubblicazione più ampia a causa del potenziale uso improprio della voce sintetica”, ha dichiarato l’azienda in un comunicato, sottolineando che le aziende con cui collaborano hanno accettato le loro politiche di utilizzo. Tra queste regole c’è quella di non usare la voce di qualcuno senza il suo consenso o di indicare agli utenti che si tratta di voci sintetiche. “Infine, abbiamo implementato una serie di misure di sicurezza, tra cui il watermarking, per tracciare l’origine di qualsiasi audio generato da Voice Engine, oltre al monitoraggio proattivo di come viene utilizzato”, ha aggiunto OpenAI.
In quest’anno elettorale negli Stati Uniti si sono già verificati casi di telefonate automatizzate con voci clonate di politici come quella del presidente Joe Biden. Un altro grande problema delle voci sintetiche generate dall’intelligenza artificiale è che i truffatori potrebbero usarle per accedere ai conti bancari che utilizzano l’autenticazione vocale.(AGI)
RED