Non è certo una sorpresa che la richiesta di potenza di calcolo sia in vertiginoso aumento, e altrettanto l’esigenza di software-defined data center flessibili e scalabili.
In un grande numero di casi, le applicazioni sono guidate dai dati e dall’intelligenza artificiale. Questo implica la creazione di carichi di lavoro importanti, come è normale che sia quando si tratta di modelli di intelligenza artificiale, spesso accompagnati da enormi quantità di dati necessari a queste app per svolgere effettivamente il loro lavoro.
La quantità e diversità di dati da gestire aumenta quotidianamente, ed è facile immaginare che l’aumento esponenziale di smart working, ecommerce ed e-learning stiano giocando un ruolo determinante, così come la crescente diffusione di IIoT ed edge computing.
Secondo Chris Wright, Senior vice president and chief technology officer di Red Hat, si rende necessario far funzionare in sinergia le tecnologie e lavorare per soddisfare le esigenze dei clienti. Diventa imperativo rompere gli schemi legati ad una visione monolitica dei data center, evolvendo verso moderni modelli software defined.
L’evoluzione dei data center passa anche attraverso l’adozione di nuove componenti hardware, e in quest’ottica la più promettente tecnologia è rappresentata dalle unità di elaborazione dati (DPU), che possono avere un impatto su quasi tutti i livelli del panorama IT, che si tratti di singoli sistemi o grandi data center multi-region
Le DPU combinano più acceleratori, rendendo possibile l’offload delle attività critiche dalla CPU all’hardware dedicato.
Il concetto DPU non è del tutto nuovo, tuttavia solo di recente gli orizzonti si sono ampliati in maniera decisa. Fino a poco tempo, le implementazioni si concentravano su una funzione particolare, come l’accelerazione di rete utilizzando SmartNIC .
Le implementazioni DPU più strutturate combinano una CPU multi-core facilmente programmabile con un’interfaccia di rete evoluta e un potente set di acceleratori di rete, archiviazione e sicurezza.
Queste DPU avanzate possono essere programmate per eseguire più funzioni definite dal software e con accelerazione hardware, esemplificate dalla DPU NVIDIA BlueField-2 lanciata di recente .
Effettuando l’offload su BlueField-2, le organizzazioni IT possono raggiungere più obiettivi, come liberare la Cpu di un server host per eseguire applicazioni aziendali e fornire una piattaforma dedicata per l’esecuzione di funzioni di sicurezza e gestione critiche.
Questo, a sua volta, porta a un software-defined data center componibile con un utilizzo ottimale delle risorse e, come ulteriore vantaggio, fornisce ulteriore visibilità sul modo in cui i carichi di lavoro vengono effettivamente eseguiti.
BlueField-2 offre agli sviluppatori funzionalità di crittografia, rete e accelerazione hardware di archiviazione. Grazie anche ad edge computing e sistemi di archiviazione ad alte prestazioni è possibile ottimizzare le prestazioni, al contempo migliorando l’utilizzo del server.
Secondo Chris Wright, Red Hat e Nvidia vedono un brillante futuro in cui i nuovi software-defined data center possono essere sfruttati e riconfigurati con i container.
Red Hat prevede di supportare BlueField-2 DPU con Red Hat Enterprise Linux e Red Hat OpenShift collaborando con Nvidia per creare i data center del futuro.
Molti clienti di Red Hat chiedono di spostare i carichi di lavoro informatici più vicini all’edge alla trasformazione digitale su vasta scala, richiedono un partner tecnologico affidabile in grado di offrire tecnologie software potenti, scalabili e completamente aperte per integrare le innovazioni hardware.
Red Hat, sostiene Wright, non pretende certo che i suoi clienti scelgano tra l’hardware necessario e il portafoglio di cloud ibrido completamente aperto, quindi la società enfatizza la fornitura di soluzioni open source di livello aziendale su più footprint e più architetture.