Home Aziende Juniper Networks Ben Baker, Juniper: ecco i trend per i data center nel 2024

Ben Baker, Juniper: ecco i trend per i data center nel 2024

Ben Baker, senior director, cloud/data center marketing di Juniper Networks, ci racconta la sua prospettiva per i data center nel 2024, con un focus sull’impatto dell’AI.

Data Center AI

Cinque-dieci anni fa, le imprese hanno iniziato a lanciarsi nel cloud pubblico, convinte dalle promesse utopiche di maggiore flessibilità e abbattimento dei costi. Molte, però, con il tempo si sono rese conto che il cloud pubblico non è così semplice ed economico come si pensava. Ora è il momento del ripensamento e capita sempre più spesso di sentire di aziende che decidono di riportare i workload al proprio interno su data center privati.

Cominciamo ad assistere a decisioni dello stesso tenore anche relativamente ai piani di nuove infrastrutture data center per l’intelligenza artificiale, ma in questo caso le aziende sono più sagge.

Costruire (on premise) vs. Affittare (cloud pubblico) vs. Ibrido (entrambi): le decisioni saranno prese in modo più lucido e professionale. Certo, costruire un nuovo cluster GPU è costoso, ma lo è anche affittare capacità da un hyperscaler. Molte aziende sceglieranno di costruire data center AI on premise per garantirsi un maggiore controllo, sicurezza più rigorosa e costi inferiori rispetto alle alternative cloud pubbliche.

Ben Baker Juniper
Ben Baker, senior director, cloud/data center marketing di Juniper Networks

Consumi e sostenibilità

I fornitori di infrastrutture continueranno a progettare e costruire apparati sempre più efficienti, ma, sulla spinta della richiesta di nuovi modelli di AI, il consumo di energia per rack continuerà a crescere. Da 10 kW per rack, si sta passando in alcuni casi a ben 100kW. Ciò comporta una domanda di energia enorme, sia per il funzionamento sia per il raffreddamento. Crescerà dunque l’importanza delle fonti di energia rinnovabile e i data center alimentati con energie rinnovabili saranno la norma, non più una rarità. I piani di costruzione dei data center saranno sempre legati a considerazioni geografiche: clima fresco con disponibilità di sole, vento e acqua. Metodi di raffreddamento alternativi che minimizzano il consumo di energia, come ad esempio l’immersione in liquidi, usciranno dalla fase di sperimentazione. Ai clienti delle strutture in co-location verrà addirittura proposta una modalità BYOP (bring your own power).

Cloud engineering vs. network engineering

Gli specialisti del cloud si muovono sul terreno tradizionale degli ingegneri di rete. Se i tool di rete della vecchia scuola continuano a sopravvivere – è praticamente impossibile liberarsi della tradizione – le competenze cloud saranno sempre più utilizzate per gestire non solo i cloud pubblici ma anche le infrastrutture private. Non è necessario che gli ingegneri di rete diventino sviluppatori di software per sopravvivere, ma dovranno comunque avere familiarità con gli strumenti cloud, come ad esempio Terraform.  Gli strumenti di rete tradizionali che possono integrarsi agevolmente con le tecnologie cloud saranno sempre in auge, mentre i vecchi sistemi di gestione di rete macchinosi e isolati, sviluppati senza pensare all’integrazione, saranno destinati all’oblio.

AIOps comincia a pervadere i data center

Con la crescita esplosiva di applicazioni e workload, soddisfare le esigenze dell’utente finale anche in termini di esperienza è più importante che mai. Fino a ora, AIOps nel networking è rimasto confinato alla sicurezza e a casi d’uso semplici negli ambienti campus e branch. Le prime, importanti aree di utilizzo di AIOps nel data center saranno la manutenzione predittiva e il troubleshooting. I tool dovranno cercare schemi che tipicamente preludono a problemi e indicheranno proattivamente ai  team IT le modifiche da fare per prevenire un calo delle prestazioni o un blocco del sistema.

Quando invece si verificano effettivamente dei problemi, AIOps effettuerà attivamente i vari passaggi di troubleshooting normalmente eseguiti da un operatore di rete e presenterà i risultati, riducendo in modo significativo il tempo necessario per la riparazione (MTTR) ma anche il Mean Time To Innocence. Gli LLM (large language models) basati sull’AI saranno incorporati in praticamente ogni interfaccia, consentendo agli operatori di muoversi agevolmente in sistemi complessi per ricevere risposte su ogni argomento, dallo stato attuale della rete alle modifiche della configurazione agli aggiornamenti raccomandati.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php