Home
Nuovi Protocolli contro il World Wide Wait

14 Settembre 1998

Nuovi Protocolli contro il World Wide Wait

di

I protocolli usati da Internet erano stati studiati per una rete che era ancora un po' sperimentale, fatta solo per il mondo della ricerca; oggi, in una rete che sta diventando universale e che si sta trasformando nel principale strumento per la trasmissione di dati multimediali, i vecchi standard risultano troppo rigidi e limitati.

Occorre ricordare che se nel gennaio del ’94, tanto per fare un esempio non troppo preistorico, Internet era costituita da poco più di 2 milioni di nodi e aveva dei Web (meno di 1.000) la cui multimedialità era ridotta all’uso di qualche file audio ancora sperimentale, i quasi 30 milioni di host contati da Network Wizard a gennaio ’98 ospitano invece server WWW con alcune centinaia di milioni pagine dove animazioni, filmati e audio in real time sono diventati un obbligo. Quasi inutile ricordare i dati sulla crescita degli utenti, oggi diventati più di 100 milioni.

Gli architetti di Internet hanno quindi iniziato da tempo un lavoro di aggiornamento che in gran parte viene sperimentato su quella che viene chiamata genericamente Internet 2. Di che cosa sia in realtà la seconda rete, la rete Next Generation, si è parlato qui di recente.
In effetti, I2 è anche una palestra dove si lavora avendo in mente le esigenze del ricco mercato delle intranet, le reti aziendali che costituiscono un nuovo motore trainante per lo sviluppo della tecnologia di rete.

Non per caso, oggi il punto di maggior successo (o di possibile fallimento) della rete è il Web, lo strumento più “commerciale” di Internet e forse anche quello più “aziendale”, che continua a preoccupare gli operatori proprio perché sempre più lento, appesantito da video la cui ricezione è troppo difficile o da streaming audio che non sempre arrivano integri a destinazione. Uno dei primi impegni degli architetti della rete è stato quindi il miglioramento del protocollo di trasmissione del Web, l’HTTP.

L’attuale HTTP 1.0 non sfrutta a fondo le caratteristiche del TCP/IP, determinando quella lentezza nel trasferimento delle pagine che giustifica l’esistenza del nome “World Wide Wait”, l’attesa planetaria da cui tutti siamo perseguitati.

Ma quali sono le cause principali della lentezza del WWW?

Quando si accede ad una pagina Web deve innanzitutto essere risolto il suo URL, ricorrendo al DNS, il Domain Name Service, una rete di server che gestiscono delle tabelle aggiornate con i dati per la conversione dei domain name (ad esempio www.apogeonline.com) nei corrispondenti IP address (ad esempio 195.223.18.88). Sull’importanza della gestione dei domini, si è già parlato a lungo in questo pezzo.

Se il valore cercato non è presente nelle tabelle del server più vicino, i calcolatori del Domain Service dovranno comunicare tra di loro per scambiarsi il dato mancante, operazione che richiede da qualche secondo ad alcuni minuti. Trovato l’URL, avviene la connessione con il server, durante la quale il client e il server devono innanzitutto “riconoscersi” tramite una procedura detta di “handshaking”, che può durare da mezzo secondo ad alcuni secondi. Fatto questo, viene inoltrata la richiesta della pagina, iniziando dal codice HTML della pagina stessa; se sono presenti delle immagini, il browser deve ripercorrere tutta la pagina e risolvere i loro URL uno ad uno, e quindi richiederne la trasmissione.

Le specifiche di HTTP versione 1.1, disponibili dall’aprile del ’97 e oggi in parte implementate, risolvono almeno un poco tutta questa complicazione.

HTTP 1.1 promette di essere molto più efficiente del predecessore. Nella versione 1.0, come si è detto, ogni nuovo puntatore incontrato dal browser durante lo scaricamento di una pagina genera una nuova richiesta al server, con l’apertura di una connessione che viene subito chiusa non appena la richiesta, ad esempio un’immagine, è stata soddisfatta. Durante ogni singola connessione, inoltre, l’HTTP 1.0 aspetta di ricevere l’ACK (ACKnolegment, il segnale di ricevuto) per ciascun pacchetto prima di inviare il successivo. La versione 1.1, invece, usa delle “persistent connection”, delle connessioni che non vengono chiuse ogni volta, lavora in pipeline (cioè non aspetta più gli ACK), spedisce pacchetti di dimensioni maggiori, e, utilizzando ciascuna connessione per ricevere più oggetti, non perde tempo in inutili chiusure e riaperture. HTTP 1.1, inoltre, può salvare gli indirizzi IP degli URL utilizzati più di frequente, riducendo il numero di volte in cui occorre interrogare i server DNS.

Un’altra arma contro il World Wide Wait potrebbe essere rappresentata dai Cascading Style Sheets, una specifica W3C di cui si è già parlato in un altro articolo.
I CSS, infatti, definiscono come caratteri e non come immagini le icone utilizzate di solito nei Web, sfruttando il set UNICODE.

Sul versante della grafica e vera e propria, la diffusione di standard più adatti al Web, dal PNG al PGML, al VML (si veda qui (aggiungere URL)) potrebbe portare ad una migliore compressione delle immagini ed a un miglioramento dei tempi di ricezione. Allo stesso modo, l’uso di XML e di altri standard derivati da SGML potrebbe rendere più efficiente la trasmissione di testi strutturati, oggi difficili e pesanti da gestire in rete.

XML potrebbe poi essere completato da XHL, Extensible Hyper Linkage, un semplicissimo set di istruzioni da inserire in qualsiasi documento di tipo SGML per definire dei link con funzioni non molto diverse da quelle dei link HTML.

Per “salvare Internet dal WWW” e dalla sua crescita incontrollabile, sono allo studio ancora altri protocolli. Rispetto alla riduzione dei tempi di trasmissione e del carico del traffico Web sulla rete, alcuni gruppi di lavoro del W3C stanno discutendo di P-HTTP (Persistent-HTTP), particolarmente adatto al pipelining, e stanno mettendo a punto il MUX, un protocollo di MUltipleXing per il Web. Per arricchire le funzioni di HTTP, invece, è allo studio il PEP (Protocol Extension Protocol).

Ma le innovazioni maggiori e più interessanti arrivano senza dubbio dalla versione 6 di Internet Protocol, la cui descrizione si trova in RFC 2068. L’attuale versione di IP, la 4, non ha solo problemi di indirizzamento, ma anche di dimensioni delle tabelle di instradamento e più in generale di supporto ai servizi multimediali e di broadcasting. La nuova implementazione differisce dalle precedenti innanzittutto per il tipo di indirizzamento, passato da 32 a 128 bit: se con l’attuale versione, la 4, si potevano avere “solo” 4 miliardi di indirizzi, con la release 6 il numero diventa enorme, pari a 2 elevato a 128. Oltre a questo, però, IPv6 prevede l’inserimento nell’header dei pacchetti di un campo che identifica il tipo di dati; se i pacchetti possono essere distinti secondo il loro contenuto, ad esempio, si potranno usare diverse politiche di instradamento differenziate in base al tipo di dati di ogni singolo pacchetto, privilegiando gli streaming audio o la trasmissione di immagini in real time a scapito della posta elettronica.

IPv6 apre decisamente la strada ad una rete dove la possibilità di applicare tariffe diverse, in base al servizio fornito, offre nuove possibilità di investimento e di sviluppo in Internet. Il nuovo protocollo risulta particolarmente interessante per le intranet, dato che IPv4, a parità di infrastruttura e di velocità disponibili, non è comunque in grado di garantire la qualità del servizio necessaria per fornire un valido supporto al teleconferencing e alle altre applicazioni video real time; IPv6, dunque, favorirà lo sviluppo sia delle intranet sia di una rete Internet adeguata all’attuale evoluzione dell’utenza Internet e delle sue esigenze. Gli utenti privati non professionali, però dovranno attendere ancora a lungo prima di beneficiare dei risultati ottenuti da Internet 2 e dai suoi nuovi protocolli.

Iscriviti alla newsletter

Novità, promozioni e approfondimenti per imparare sempre qualcosa di nuovo

Gli argomenti che mi interessano:
Iscrivendomi dichiaro di aver preso visione dell’Informativa fornita ai sensi dell'art. 13 e 14 del Regolamento Europeo EU 679/2016.