Anticipando strategicamente la presentazione Google I/O di martedì, OpenAI ha svelato GPT-4o (la o sta per omni), la nuova versione del modello GPT-4 che potenzia l’assistente intelligente dell’azienda. Mira Murati, CTO di OpenAI, ha rivelato durante una diretta streaming che GPT-4o è notevolmente più veloce e introduce miglioramenti nelle capacità testuali, visive e audio. Murati ha inoltre confermato che il nuovo modello sarà disponibile gratuitamente per tutti gli utenti, con quelli paganti che continueranno a godere di “fino a cinque volte i limiti di capacità” rispetto agli utenti gratuiti.
Il CEO di OpenAI, Sam Altman, ha condiviso ulteriori dettagli su GPT-4o attraverso un post su X, sottolineando che il modello è “nativamente multimodale”. Ciò implica che GPT-4o può generare contenuti e comprendere comandi in formato vocale, testuale e visivo. Altman ha anche annunciato che gli sviluppatori avranno accesso a un’API a metà del prezzo e il doppio più veloce rispetto a GPT-4 Turbo, offrendo nuove opportunità per l’innovazione.
Le funzionalità di GPT-4o saranno rilasciate gradualmente, come spiegato in un post sul blog di OpenAI, con le capacità testuali e visive già disponibili su ChatGPT a partire da lunedì. Inoltre, la modalità vocale di ChatGPT vedrà l’integrazione di nuove funzionalità, permettendo all’app di agire come un assistente vocale in tempo reale, capace di rispondere e osservare l’ambiente circostante. Attualmente, la modalità vocale risponde a un solo prompt alla volta, limitandosi a ciò che può ascoltare.
In un’analisi del percorso di OpenAI, il CEO Sam Altman ha riflettuto sul cambiamento di visione dell’azienda. Originariamente focalizzata sulla creazione di benefici globali, OpenAI ha affrontato critiche per la mancata open-source dei suoi modelli avanzati di intelligenza artificiale. Altman ha suggerito che l’obiettivo si è ora spostato verso la messa a disposizione di questi modelli agli sviluppatori tramite API a pagamento, permettendo a terze parti di creare applicazioni innovative. “Programmeremo l’IA e poi altri la utilizzeranno per creare cose straordinarie di cui tutti beneficeremo”, ha dichiarato.
Prima del lancio di GPT-4o, erano circolate diverse speculazioni sugli annunci imminenti di OpenAI, tra cui un motore di ricerca AI per competere con Google e Perplexity, un assistente vocale integrato in GPT-4, o un modello completamente nuovo e migliorato, GPT-5. Tuttavia, OpenAI ha scelto di presentare GPT-4o, aprendo una nuova fase di sviluppo e utilizzo delle tecnologie AI proprio alla vigilia del Google I/O, dove si attendono numerosi annunci dal team Gemini.
Post comments (0)