Microsoft ha presentato Phi-4, il modello linguistico di piccole dimensioni (SLM, Small Language Model) con 14B parametri, che eccelle nel ragionamento complesso in aree come la matematica, oltre che nell’elaborazione linguistica convenzionale.
Phi-4 – spiega Microsoft – è l’ultimo membro della famiglia di modelli linguistici di piccole dimensioni Phi dell’azienda e dimostra cosa è possibile fare mentre il team continua a sondare i confini degli SLM. Phi-4 è attualmente disponibile su Azure AI Foundry sulla base di un Microsoft Research License Agreement (MSRLA) e sarà disponibile su Hugging Face la prossima settimana.
Microsoft afferma che Phi-4 supera modelli analoghi e più grandi nei ragionamenti matematici grazie ai progressi compiuti nel corso dei processi, tra cui l’uso di set di dati sintetici di alta qualità, la raccolta di dati organici di alta qualità e le innovazioni post-training.
Phi-4 continua a superare la frontiera delle dimensioni rispetto alla qualità, sottolinea la società di Redmond, ed è particolarmente capace nei problemi matematici. È possibile vedere una serie benchmark nell’ultimo paper tecnico pubblicato su arxiv.
Costruire soluzioni di IA in modo responsabile – sottolinea l’azienda – è al centro dello sviluppo dell’intelligenza artificiale in Microsoft, che ha reso disponibili le sue solide capacità di AI responsabile ai clienti che costruiscono con modelli Phi, tra cui Phi-3.5-mini ottimizzato per i PC Windows Copilot+.
Azure AI Foundry offre agli utenti un robusto set di funzionalità per aiutare le organizzazioni a misurare, mitigare e gestire i rischi dell’IA durante il ciclo di vita dello sviluppo per le applicazioni tradizionali di apprendimento automatico e di IA generativa. Le valutazioni di Azure AI in AI Foundry consentono agli sviluppatori di valutare iterativamente la qualità e la sicurezza di modelli e applicazioni utilizzando metriche integrate e personalizzate per ispirare le mitigazioni.
Inoltre, gli utenti di Phi possono utilizzare le funzionalità di Azure AI Content Safety, quali prompt shield, rilevamento di materiali protetti e rilevamento di groundedness. Queste funzionalità possono essere sfruttate come filtri di contenuto con qualsiasi modello linguistico incluso nel catalogo di modelli dell’azienda e gli sviluppatori possono integrare facilmente queste funzionalità nelle loro applicazioni attraverso un’unica API.
Una volta in produzione, gli sviluppatori possono monitorare la loro applicazione per quanto riguarda la qualità e la sicurezza, gli attacchi di prompt avversari e l’integrità dei dati, intervenendo tempestivamente con l’aiuto di avvisi in tempo reale.