OpenAI lancerà un nuovo modello che porterà la stessa intelligenza a tutti gli utenti, compresi quelli della versione gratuita di ChatGPT, oltre a un'interfaccia vocale che potrebbe rivaleggiare con Alexa di Amazon (NASDAQ:AMZN).
Nel suo cosiddetto "aggiornamento di primavera", OpenAI ha presentato il nuovo modello ChatGPT-4o nel suo primo evento live mainstream di lunedì.
Mira Murati, chief technology officer di OpenAI, ha dichiarato al pubblico che questo modello è molto più veloce del precedente ChatGPT-4 e che migliora testo, video e audio.
"È un enorme passo avanti per quanto riguarda la facilità d'uso", ha detto, dimostrando come sia in grado di tradurre istantaneamente il suo discorso in italiano.
Cos'altro può fare ChatGPT-4o?
In occasione dell'evento tanto pubblicizzato è stata presentata anche una modalità vocale in grado di leggere i movimenti del corpo, come ad esempio la respirazione pesante di un utente, e di generare una voce con diversi stili emotivi quando richiesto, come una voce robotica o cantilenante.Risponde anche ai commenti in modo simile a quello umano, ad esempio quando è stato complimentato per essere "utile e sorprendente", ha risposto: "Oh, smettila, mi stai facendo arrossire".
"Parlare con un computer non mi è mai sembrato davvero naturale; ora lo è. Con l'aggiunta della personalizzazione (opzionale), dell'accesso alle informazioni, della capacità di intraprendere azioni per conto dell'utente e di molto altro ancora, vedo un futuro entusiasmante in cui saremo in grado di usare i computer per fare molto di più di quanto non sia mai stato fatto prima", ha dichiarato Sam Altman, CEO e co-fondatore di OpenAI, in un blog.
L'azienda ha dichiarato che, a differenza delle versioni precedenti, gli utenti possono interrompere il modello e questo può rispondere in tempo reale, riducendo il ritardo di 2-3 secondi.
ChatGPT è anche in grado di rilevare le emozioni guardando un volto attraverso la telecamera. Durante la demo, è stato mostrato un volto sorridente e l'IA ha chiesto: "Vuoi condividere il motivo delle tue buone vibrazioni?".
ChatGPT sta lanciando anche un'applicazione desktop con funzionalità vocali e di visione.
Disponibile per tutti e più veloce
Un altro grande aggiornamento è che il modello è stato portato all'interfaccia di programmazione dell'intelligenza artificiale (API), il che significa che gli sviluppatori possono iniziare a costruire il loro modello a un prezzo più basso del 50 per cento e due volte più velocemente.ChatGPT-4o è inoltre disponibile in 50 lingue, coprendo il 97 per cento della popolazione mondiale.
Protezione dei dati ed etica?
All'evento OpenAI non ha detto se proteggerà i dati degli utenti. Nelle versioni precedenti, ChatGPT poteva utilizzare le conversazioni degli utenti per l'addestramento, a meno che l'utente non si opponesse.L'IA generativa è finita sotto i riflettori per i pregiudizi e le allucinazioni dell'IA (risposte errate e fuorvianti). L'azienda non ha menzionato come o se migliorerà questo aspetto nel nuovo modello.
Attualmente OpenAI utilizza un metodo chiamato reinforcement learning from human feedback (RLHF), ovvero quando gli esseri umani verificano le distorsioni nelle risposte del chatbot.