Al DevDay di San Francisco, l’evento annuale dedicato agli sviluppatori, OpenAI ha annunciato quattro novità relative alla piattaforma API.
Le nuove feature presentate da OpenAI al DevDay
- API in tempo reale: una nuova API che consente agli sviluppatori di creare esperienze multimodali a bassa latenza nelle loro applicazioni. Simile all’Advanced Voice Mode di ChatGPT, la API in tempo reale supporta conversazioni naturali speech-to-speech utilizzando le sei voci preimpostate, già supportate dall’API
- Model Distillation + memorizzazione veloce: due nuove funzionalità che aiutano gli sviluppatori a bilanciare prestazioni, costi e latenza nella creazione e scalabilità di applicazioni AI
- Model Distillation offre agli sviluppatori un flusso di lavoro integrato per migliorare modelli in termini di efficienza e grandezza, come GPT-4o mini, utilizzando output derivanti da modelli più avanzati come GPT-4o o l’anteprima di o1
- Memorizzazione veloce assicura agli sviluppatori una velocità di processazione prompting ridotta del 50% attraverso il riutilizzo dei token di input recentemente visualizzati
- Fine-tuning per immagini: consente agli sviluppatori di mettere a punto GPT-4o sia con immagini sia con testo. Grazie al Fine-tuning GPT-4o con le immagini, gli sviluppatori potranno personalizzare i modelli in modo da avere maggiore capacità di comprensione delle immagini, il che consente di realizzare applicazioni che abbiano una migliore funzionalità di ricerca visiva, un migliore rilevamento degli oggetti per veicoli autonomi o smart city e un’analisi più accurata delle immagini mediche
Per ulteriori informazioni: Realtime API | Vision Fine-tuning | Distillation | Prompt Caching
Il DevDay di OpenAI si è tenuto l’1 ottobre San Francisco, mentre le edizioni di Londra e Singapore avranno luogo rispettivamente il 30 ottobre e il 21 novembre.
Questo evento riunisce gli sviluppatori che utilizzano la piattaforma API di OpenAI e prevede sessioni di approfondimento, demo e confronto con la community. L’evento non viene trasmesso in diretta, ma verranno pubblicati contenuti video sul canale YouTube di OpenAI nel corso dell’anno.
Tutti i contenuti del DevDay verranno caricati all’interno della sezione DevDay Hub sul sito di OpenAI.
Inoltre, la scorsa settimana OpenAI ha annunciato un nuovo modello di moderazione, omni-moderation-latest, nell’API di moderazione. Basato su GPT-4o, la nuova versione supporta input sia di testo sia di immagini ed è più accurata del precedente, soprattutto perché è compatibile con altre lingue oltre all’inglese. È, inoltre, in grado di rilevare i contenuti dannosi in due nuove categorie. Infine, il suo uso è gratuito per gli sviluppatori, con limiti tariffari a seconda del livello di utilizzo.
La missione di OpenAI è garantire che l’intelligenza artificiale sia sicura e vantaggiosa per tutta l’umanità. La piattaforma API accelera questa missione, rendendo l’intelligenza artificiale ampiamente disponibile per gli sviluppatori, contribuendo a diffonderne i benefici a livello globale in sempre più numerosi ambiti di utilizzo e industry.