I principi di funzionamento e gli standard delle reti locali senza fili, utilizzate come complemento o in alternativa alle reti cablate. pubblicata sul numero 5 luglio/agosto 2000
Le wireless LAN (WLAN) trovano il loro naturale sbocco in alcune aree applicative particolari. In primo luogo, risultano vantaggiose in vecchi edifici di valore storico dove il cablaggio risulta critico, oppure dove esiste l’esigenza di ristrutturazioni frequenti. Sono impiegate anche in siti industriali e cantieri, per realizzare reti temporanee o per applicazioni con terminali mobili. I vantaggi rispetto alle soluzioni cablate stanno nella semplicità e rapidità di installazione e nei conseguenti bassi costi iniziali, nella flessibilità e scalabilità e, in generale, nelle applicazioni di mobilità. Il più usato fra gli standard definiti per le WLAN è IEEE 802.11. Esiste poi la famiglia Hiperlan, di cui la prima versione non ha mai trovato uno sbocco commerciale. La seconda versione, messa a punto recentemente, sembra avere migliori possibilità di successo nell’immediato futuro. Un altro standard è OpenAir. In questo contesto vanno citate anche due tecnologie wireless non propriamente riferite alle WLAN, Bluetooth e HomeRf, fra loro in competizione.
Il mezzo trasmissivo:radio e infrarosso
Il mezzo radio è caratterizzato da alcune importanti peculiarità, quali il decadimento della potenza con l’aumentare della distanza: in altre parole, se la lunghezza della tratta radio aumenta la potenza diminuisce. Un aspetto importante è il fenomeno dei cammini multipli (vedi box a pagina 17), che produce due effetti, il fading, attenuazione casuale del segnale ricevuto, e il delay spread, dispersione temporale degli impulsi che produce l’interferenza intersimbolo. Un’altra caratteristica del mezzo radio è che, almeno fino a frequenze pari a 5 GHz, le onde passano attraverso i muri ma non in modo trasparente: le pareti interne, dunque, non sono un ostacolo, ma causano un’attenuazione supplementare. Esiste, poi, come noto, il problema dell’interferenza causata dalla presenza di più utenti o più sistemi che operano sulla stessa banda di frequenza. Il mezzo infrarosso, invece, è caratterizzato da necessità di propagazione diretta (line-of-sight): qualunque oggetto si frapponga fra sorgente e ricevitore blocca la comunicazione. Inoltre, l’infrarosso subisce interferenze da sorgenti di luce, per esempio il sole. D’altra parte costa poco e consente di raggiungere la velocità di 50 Mbit per secondo. La copertura è relativamente ridotta rispetto al mezzo radio, proprio a causa della opacità degli oggetti. Questo problema rende anche impossibile la comunicazione punto-multipunto tipica delle LAN.
Le bande di frequenza e la legge di propagazione radio
Una banda di frequenza particolarmente vantaggiosa è costituita dall’ISM (Industrial,Scientific, Medical) su cui si può trasmettere senza chiedere licenze, purché si rispettino dei limiti, per esempio di potenza. Le WLAN sono solo uno dei dispositivi che possono usare queste frequenze. Le utilizzano, per esempio, i forni a microonde: questo significa che se una WLAN è installata a casa si avranno di sicuro delle interferenze. Le bande di frequenza sono, in Europa, intorno a 2,4 GHz (utilizzate dai prodotti attuali) e a 5,8 GHz, dove si stanno concentrando oggi gli investimenti per la propagazione ad alto bit rate: queste bande sono libere in tutta Europa tranne che in Francia e Spagna, dove ci sono dei problemi. Esistono bande ISM anche intorno a 17, 24 e 61 GHz, ma a queste frequenze le problematiche di propagazione sono diverse e i costi degli apparati più elevati. Esistono poi bande di frequenza intorno a 5,2 GHz dedicate alle WLAN e utilizzate da diversi costruttori. La legge di propagazione stabilisce che la potenza al ricevitore è uguale alla potenza trasmessa diviso la distanza. La legge prevede inoltre un coefficiente, l’esponente da assegnare alla distanza, che varia fra due e quattro a seconda delle condizioni ambientali, ovvero se in spazio aperto o in presenza di muri. In pratica, la copertura tipica è 500-1000 metri all’aperto e 50-100 metri al chiuso.
La tecnologia spread-spectrum
L’idea alla base della tecnologia spread-spectrum è quella di utilizzare una banda più larga del necessario per fronteggiare ambienti ostili. In effetti, la teoria dell’informazione insegna che un modo per far lavorare un sistema con un rapporto segnale/rumore basso è quello di usare una banda larga. L’allargamento di banda può essere ottenuto in due modi, che rappresentano le due versioni della tecnologia spread-spectrum. La prima è quella di moltiplicare per una sequenza ad alto rate (direct-sequence), la seconda è quella di usare un certo numero di portanti radio “saltando” da una all’altra (frequency -hopping). I vantaggi delle tecnologie spread-spectrum sono, quindi, legati alla resistenza all’interferenza, alla possibilità di coesistere con altri sistemi e la resistenza ai cammini multipli. È chiaro che si richiede una banda più larga (per trasmettere a 10 Mbps con un fattore di allrgamento pari a 100 serve 1 Gbps di banda); inoltre, viene introdotta una maggiore complessità, per esempio legata al sincronismo. Nel caso del direct-sequence, l’operazione di despreading riporta la densità spettrale del segnale al livello iniziale utilizzando la stessa sequenza usata per espandere. La cosa importante è che se si utilizza una certa sequenza per ricevere un segnale che è stato spedito con una sequenza diversa il despreading non avviene. Questo significa che, quando due utenti usano la stessa banda allargata contemporaneamente, con il despreading si riesce a isolare il segnale che interessa ricevere, lasciando invariato quello delle interferenze. Il meccanismo del frequency-hopping prevede, invece, che istantaneamente la banda sia quella del segnale originario ma la frequenza della portante viene continuamente modificata secondo una sequenza pseudo casuale: il ricevitore deve ovviamente conoscerla, ma non un osservatore esterno. Se due utenti usano due sequenze di frequenze che a ogni istante sono diverse non si scontrano mai, o quasi. Nel caso di sovrapposizione (hit), gli errori che risultano possono essere corretti usano codici opportuni, se questo è abbastanza raro. La tecnologia spread-spectrum è oggi molto utilizzata: lo standard 802.11 prevede entrambi i meccanismi. Inoltre, direct sequence è alla base dei sistemi cellulari di terza generazione, mentre frequency-hopping è alla base di Bluetooth.
L’accesso multiplo alle risorse
Il problema dell’accesso multiplo riguarda i metodi per consentire a più utenti di condividere una risorsa comune. Sei i flussi di traffico sono relativamente costanti, la condivisione deterministica è quella più sensata: a divisione di frequenza, cioè dividendo la banda a “fettine”, o di tempo, assegnando i time slot agli utenti. Il traffico dati, però, è poco adatto a questi metodi essendo tipicamente impulsivo. Il primo protocollo messo a punto per risolvere il problema, negli anni 70, è il noto Aloha, inventato alle isole Hawaii dove esistevano tanti campus nelle diverse isole che dovevano comunicare fra loro. Le regole sono semplicissime: ogni volta che si ha un pacchetto, lo si trasmette. Se nessun altro sta trasmettendo durante un intervallo di tempo che è pari a due volte la lunghezza del pacchetto (intervallo di vulnerabilità del protocollo) va tutto bene. Altrimenti avviene una collisione e bisogna ritrasmettere. Un modo per ridurre la probabilità di collisioni, dimezzando l’intervallo critico, è quello utilizzato dal meccanismo Slotted Aloha, in cui le trasmissioni possono cominciare solo a istanti fissi. I protocolli Aloha sono semplici, ma poco efficienti, ovvero le collisioni sono comunque numerose perché nessun utente sa se anche gli altri stanno trasmettendo in quel momento. La soluzione è quella di ascoltare il canale prima di trasmettere per capire se è libero od occupato. Questo è il meccanismo CSMA/CD (Carrier Sense Multiple Access with Collision Detection) che prevede l’ascolto del canale sia prima di trasmettere che durante la trasmissione e l’interruzione della trasmissione stessa in caso di collisione. CSMA/CD è praticamente lo standard Ethernet.
Wireless Ethernet non funziona
E’interessante notare che Aloha è nato come sistema radio e si è poi evoluto diventando uno standard per le reti cablate. Ci si chiede perché, dunque, Ethernet, così diffuso, non trovi impiego nelle reti wireless. In realtà, wireless Ethernet non può funzionare. Infatti, la collision detection in ambiente radio è difficile da realizzare: trasmettere e ascoltare contemporaneamente sulla stessa frequenza è molto difficile perchè un utente trasmettendo “assorda” se stesso. L’altro problema grave è quello del terminale nascosto (vedi box). Inoltre, bisogna considerare che esistono problematiche particolari della trasmissione radio che Ethernet non affronta, per esempio le interferenze, la sicurezza o i consumi di potenza.
Assegnazione su richiesta: polling e token
Altri metodi per l’accesso multiplo di tipo “assegnazione su richiesta” sono il polling e il token. Nel primo caso c’è un’entità centrale che sollecita utenti diversi in sequenza a trasmettere (cioè chiede all’utente 1 se vuole parlare, poi al 2 e così via). Per trasmettere, quindi, ciascuna stazione deve aspettare il proprio turno, il che implica un ritardo (mediamente metà del ciclo di polling) anche a rete scarica. Inoltre, se il master si rompe, il sistema non funziona. Un altro meccanismo è quello del token, in cui parla solo chi possiede il token. Siccome, però, con le reti radio è molto probabile che ci siano errori, il token potrebbe perdersi, bloccando il sistema. Un misto fra assegnazione su richiesta e Aloha è PRMA. Esiste un’architettura a slot, ciascuno dei quali marchiato come disponibile o riservato. Gli slot riservati vengono usati senza conflitti, mentre a quelli disponibili si accede in modalità Aloha. In pratica, se l’utente vince la contesa si “prenota” fino alla fine della trasmissione.
Lo standard 802.11 e il meccanismo csma/ca
Lo standard 802.11, approvato nel giugno 1997, è alla base di molti prodotti. Definisce il livello fisico e il MAC e prevede sia reti ad hoc, senza nodo centrale, che reti con infrastruttura. L’architettura (figura a pagina 18) prevede una serie di BSS (Basic Service Set) la cui unione crea un ESS (Extended Service Set) che viene ottenuto attraverso la connessione a un backbone. Il livello fisico prevede tre possibilità, ciascuna delle quali compatibile con il MAC: frequency-hopping, nella banda a 2,4 GHz, direct-sequence, nella stessa banda, oppure infrarosso a 850-950 nm. La velocità trasmissiva base è di 1 o 2 Mbps, ma esistono estensioni già approvate fino a 11 Mbps. Il livello MAC, invece, prevede due schemi di accesso. Il primo è CSMA/CA: dal momento che non si può fare collision detection, si fa il Collition Avoidance (CA), ovvero si fa di tutto per evitarle. Inoltre, esiste un meccanismo opzionale di accesso senza contesa, di tipo polling, gestito dall’access point. Questa modalità di accesso si alterna alla precedente e introduce complicazioni dovute alla necessità di sincronizzare le trasmissioni. Quando un’applicazione manda al MAC un pacchetto da trasmettere, il MAC si mette in ascolto per un periodo di tempo (DIFS) e se trova il canale libero inizia a trasmettere. Tutti gli altri sono quindi in attesa fino a che il mezzo diventa libero. A questo punto, non è possibile usare lo stesso meccanismo di prima, perché se tutte le stazioni che devono parlare si mettessero in attesa per un periodo DIFS la collisione sarebbe sicura. L’attesa viene quindi differenziata in modo da gestire la priorità. Se, per esempio, alla fine di una trasmissione si deve inviare un pacchetto di Acknowledge, questo avrà priorità massima, cioè deve avvenire subito dopo il pacchetto. Esistono, quindi, diverse lunghezze degli spazi interframe, a seconda della priorità (figura in basso). Si chiamano: SIFS (priorità massima), PIFS (priorità alta per traffico sensibile al ritardo), DIFS (priorità minima per traffico asincrono). Quindi, il terminale che vuole trasmettere si rimette in ascolto e se trova occupato aspetta che si liberi. Se il canale resta libero per un intervallo DIFS, viene estratto un timer casuale: comincia cioè un conto alla rovescia e, quando arriva a zero, il terminale può trasmettere. Quello che estrae il numero più basso, quindi, è il primo a parlare. Per evitare che chi ha un timer lungo venga troppo penalizzato, il “conto alla rovescia viene “congelato” quando il canale è occupato: il conteggio riparte, dunque, da quell’istante.
La riduzione dei consumi
La modalità in cui si consuma più potenza è quella di trasmissione. Tuttavia, se il protocollo è congegnato bene e le ritrasmissioni sono poche, non c’è molto da fare. Ci sono, invece, margini consistenti in ricezione: infatti, il terminale deve essere costantemente in ascolto per captare la trasmissione. Si risolve la questione creando due stati del terminale, sveglio e addormentato (awake e doze). Le stazioni dormienti si risvegliano periodicamente e i dati rimangono accodati se il destinatario non è pronto a riceverli. È necessaria una temporizzazione comune che stabilisca in maniera precisa quando gli apparati devono svegliarsi. Si implementa quindi la funzione TSF (Time Sinchronisation Function) che, nel caso di reti con infrastruttura, prevede che il sincronismo sia fornito dall’access point. In un sistema non centralizzato, invece, si effettua un meccanismo a contesa in cui chi vince costringe tutti gli altri ad adottare il proprio sincronismo.
Lo standard Hiperlan
Lo standard europeo Hiperlan utilizza la modulazione GMSK invece che spread-spectrum e impiega un codice a correzione di errore per far fronte alle interferenze. Ha un meccanismo di accesso più complesso di quello dell’802.11, sempre nell’ottica di avere la più bassa probabilità possibile di collisione. I meccanismi di power saving sono simili, cioè basati sulle fasi di “sonno “ e sveglia” dei terminali. Inoltre, esiste una modalità di trasmissione a basso rate: l’inizio del pacchetto che contiene l’indirizzo del destinatario viene trasmesso a basso rate e non richiede l’uso di equalizzazione e neppure di correzione di errore, che sono importanti quando il rate è alto. In questo modo è possibile tenere spenta quasi tutta la circuiteria lato utente, in modo che non consumi potenza, e aspettare di ricevere questo frame a basso rate, senza appunto fare uso di altre procedure più sofisticate come l’equalizzazione. Solo nel caso in cui le stazioni riconoscano il proprio indirizzo effettuano il “power on”.
La gestione della mobilità
Esistono due tipi di mobilità. La prima è quella in cui l’utente si sposta, ma resta sempre all’interno della LAN. Gli standard non specificano le modalità di roaming, ma forniscono alcuni blocchi funzionali che possono essere usati per gestire la modalità. Un esempio è lo scanning (attivo o passivo) in cui la stazione acquisisce il sincronismo dell’AP a cui si riferisce, meccanismo utile quando l’utente cambia access point. Ci sono poi procedure di autenticazione dell’utente, di associazione, con cui un utente scambia informazioni con l’AP, e di riassociazione, sempre per cambiare AP. La seconda possibilità è quella in cui l’utente non si muove all’interno della rete: la mobilità va dunque gestita a livello di indirizzo IP (mobile IP).
Sicurezza e interoperabilità
Qui i problemi sono l’accesso non autorizzato alla rete e la segretezza dei dati che viaggiano sul canale radio. Le procedure di autenticazione risolvono il primo aspetto mentre la crittografia, in particolare il sistema WEP (Wireless Equivalent Privacy) risolve il secondo. L’interoperabilità è costituita da tre aspetti: la conformità allo standard (test delle interfacce), il test di compatibilità fra due o più elementi specifici, il benchmarking e le valutazioni delle prestazioni. Questi test vengono effettuati con complessi sistemi software da diverse organizzazioni, in particolare la WLAN Interoperability Forum (WLIF) e la W-Ethernet compatibility Alliance (WECA), che rilascia il marchio WI-FI.
Tecnologie ad alto bit rate
Le più recenti versioni di 802.11 a 2,4 GHz usano una tecnica chiamata Complementary Code Keying (CCK), che consente di trasmettere, oltre che a 1 e 2 Mbps a 5,5 Mbps e a 11 Mbps, in modalità direct-sequence spread-spectrum. Esiste anche una nuova versione dell’802.11 a 5,2 GHz che usa un livello fisico completamente diverso, chiamato OFDM (Orthogonal Frequency Division Multiplexing) che supporta fino a 54 Mbps in 20 MHz. OFDM viene usato anche in Hiperlan 2 e MMAC (Multimedia Multiaccess Communication). Nell’Hiperlan 2, inoltre, il MAC è centralizzato, per evitare una serie di problemi quali le collisioni. La famiglia Hiperlan comprende anche Hiperaccess, tecnologia punto-multipunto con velocità fino a 25 Mbps in una banda di frequenze non ancora decisa, e Hiperlink, a 155 Mbps nella banda dei 17 MGHz, molto costoso.
I problemi di fading e delay spread
Come si vede nella figura, in una stanza chiusa al ricevitore non arrivano le onde emesse solo lungo la congiungente i due punti ma anche i segnali riflessi dai muri, dal momento che sia il trasmettitore che il ricevitore devono trasmettere e ricevere in tutte le direzioni. I problemi che si generano, e che hanno come effetto quello di limitare il bit rate, sono due: gli affievolimenti (fading) e la dispersione temporale (delay spread). • Fading (affievolimento): se due segnali radio uguali si propagano uno in modo diretto e l’altro di rimbalzo, la differenza nella lunghezza di questi cammini provoca uno sfasamento al ricevitore. Se, come caso limite, la variazione di fase è di 180 gradi, lo sfasamento provoca l’annullamento dei segnali; viceversa, se le fasi sono uguali l’energia si somma e il segnale è più forte. Siccome le variazioni di fase dipendono da distanze che sono dell’ordine di grandezza della lunghezza d’onda, è chiaro che piccole differenze nella lunghezza dei cammini, ottenute spostando di pochi centimetri il terminale, possono modificare sostanzialmente la situazione. Una soluzione al fading è quella di avere più di un’antenna, il che rende poco probabile il fatto che tutte quante subiscano contemporaneamente il fenomeno. • Delay spread (dispersione temporale): è dovuto al fatto che al ricevitore arrivano più segnali a istanti di tempo diversi. Se la differenza di fase dei cammini è paragonabile al tempo di simbolo, cioè alla durata del bit, e, se i ritardi sono grandi, i bit si sovrappongono. Si ha quindi la cosiddetta interferenza intersimbolo. Una tecnica per cercare di eliminare questo inconveniente è l’equalizzazione.
Il meccanismo RTS/CTS
Due terminali che trasmettono possono collidere al ricevitore perché fra di loro non si sentono. Supponiamo che la copertura radio sia perfettamente circolare. Se A sta trasmettendo a C, B, obbedendo al meccanismo del carrier sensing, ascolta il canale radio e non sente niente, perché A è fuori dalla sua copertura. Comincia quindi a trasmettere a C e la sua trasmissione si scontra con quella di A. Un modo per risolvere il problema è RTS/CTS (Request To Send/ Clear To Send), specificato negli standard. Se B vuole trasmettere, invia un RTS a C. Se C non è impegnato a ricevere, risponde con un messaggio CTS che significa “via libera”. I potenziali interferenti vengono zittiti. Alla fine viene inviato un messaggio di acknowledgement per garantire che tutto sia andato a buon fine.
Si ringrazia il professor Michele Zorzi dell’Università degli Studi di Ferrara per le informazioni fornite