I vendor promettono di rendere le infrastrutture così intelligenti da adattarsi alle esigenze dell’utente, garantendo anche la security
Le reti di prossima generazione saranno, almeno così promettono i vendor, «application-aware». In parole povere significa che avranno un tale livello di intelligenza da offrire, in tempo reale, tutte le funzionalità necessarie per far funzionare al meglio l’applicazione che su di esse poggia.
Questa esigenza deriva, in primo luogo, dall’aumento della sofisticazione delle applicazioni che le reti sono chiamate a gestire. Non solo soluzioni convergenti, dall’Ip telephony alla videoconferenza alla messaggistica integrata, ma anche storage, con il diffondersi delle Storage Area Network (San), che sino a ora rappresentavano a tutti gli effetti un mondo separato con caratteristiche proprie, sia in termini di funzionalità che di modalità di gestione e supporto.
Se a ciò si aggiunge il fatto che le stesse applicazioni di comunicazione sono sempre più integrate con i processi di business, si evidenzia l’importanza di questo nuovo scenario del networking.
Le reti application aware sono la risposta dei vendor alle esigenze degli utenti in questo quadro complesso, in cui è necessario che una rete possa erogare il giusto livello di servizio alle applicazioni, ne garantisca la disponibilità, permetta l’accesso ai servizi informativi e di comunicazione agli utenti ovunque si trovino, qualsiasi rete di connessione abbiano a disposizione e indipendentemente dal terminale disponibile in quel momento. Queste infrastrutture saranno in grado di autoadattarsi alle esigenze non solo delle applicazioni, ma anche degli utenti che le utilizzano, della rete di interconnessione e del dispositivo.
Si tratta di tecnologie complesse: lo sforzo che viene fatto dai fornitori delle nuove architetture di rete consiste nel nascondere questa complessità e rendere la fruizione di una rete trasparente all’utilizzatore.
Per comprendere appieno la portata dell’innovazione tecnologica che renderà tanto intelligenti le reti, è opportuno fare un passo indietro e ricordare che le reti Ip sono state progettate per offrire un supporto di networking affidabile nei confronti delle sole applicazioni dati. Il principio di base è la ritrasmissione automatica dei pacchetti persi o alterati realizzata tramite il protocollo Tcp (Trasmission Control Protocol) e il routing dinamico (instradamento) dei pacchetti su un percorso alternativo nella rete nel caso di malfunzionamento della tratta su cui la trasmissione è inizialmente avvenuta e su cui è stato costruito il circuito logico che connette i due utenti di una sessione di lavoro. Le modalità funzionali del Tcp sono state concepite negli anni Settanta, quando le esigenze di velocità erano incomparabilmente più basse rispetto alle attuali e la convergenza di voce, dati e video non era nemmeno immaginabile. Ecco perché è molto difficile, con questo protocollo, assicurare qualità del servizio, capacità di banda garantita, adeguamento automatico alle esigenze di una applicazione o del tipo di terminale. Il supporto della voce è particolarmente critico, perché noi siamo molto sensibili alla qualità, essendo stati abituati a parlare con la rete telefonica tradizionale che funziona ottimamente: non è accettabile una voce incomprensibile dovuta alla perdita o al ritardo di pacchetti o altri inconvenienti come l’effetto eco.
Le applicazioni di comunicazione convergente devono, perciò, operare in tempi accettabili con limiti massimi prestabiliti e affrontare una nutrita serie di problematiche quali schemi di traffico variabili, congestione della rete o situazioni di guasto e attacchi alla sicurezza.
Grazie a software sempre più evoluti e meccanismi di elaborazione sempre più veloci a livello di silicio, cioè con Asic dedicati, i vendor riescono oggi a venire incontro a queste esigenze. Ciò significa erogare servizi con una QoS (Quality of Service) garantita su tutta l’infrastruttura Ip, dal client al communication server, e riuscire a impostare e gestire le policy che garantiscono una gestione corretta del traffico. Inoltre, significa integrare in rete principi di sicurezza, consentendo l’accesso alla rete solo ai client affidabili e arginando gli attacchi. Il tutto garantendo il ripristino molto rapido in caso di guasto, e ridondanza geografica dei server per garantire la business continuity.
Molti vendor si stanno cimentando su questo aspro terreno: i risultati concreti si vedranno nei prossimi anni.