OpenAI sta sviluppando nuovi algoritmi per implementare delle funzionalità avanzate che permettano di rendere l’esperienza di utilizzo di ChatGPT sempre più orientata alle specificità dell’utente, partendo proprio dall’miglioramento delle funzionalità di sintesi vocale che permettano di ottenere un suono più “naturale” rispetto all’attuale voce robotica.
Il chatbot basato sull’AI di OpenAI attualmente ha già integrato una modalità vocale, in cui gli utenti possono fare richieste verbali tramite il microfono del loro dispositivo e il ChatGPT dopo l’elaborazione della richiesta fornirà una risposta vocale.
L’utente potrà porre domande di approfondimento, come in una normale conversazione con una persona.
We’re starting to roll out advanced Voice Mode to a small group of ChatGPT Plus users. Advanced Voice Mode offers more natural, real-time conversations, allows you to interrupt anytime, and senses and responds to your emotions. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) July 30, 2024
Il rilascio di Advanced Voice Mode è stato presentato in un evento di lancio. OpenAI ha implementato una nuove versione beta della sua modalità vocale avanzata, che migliora in tempo reale il livello di conversazione vocale verso un suono più naturale.
Attualmente è dotata di quattro voci preimpostate ed è progettata per essere in grado di cogliere più sfumature, come sarcasmo o battute. Inoltre tra le nuove funzionalità di ChatGPT, sono l’integrazione di “filtri” che impediranno al bot di generare musica o altri suoni che potrebbero essere protetti da copyright.
Attualmente Advanced Voice Mode è disponibile esclusivamente per un gruppo di test selezionato di abbonati a ChatGPT+.