alberto marinelli internet e world wide web...1 alberto marinelli internet e world wide web in senso...

22
1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una serie di reti, private, pubbliche, aziendali, universitarie, commerciali, connesse tra di loro fino a raggiungere una dimensione di accesso globale. Le reti sono interconnesse in senso fisico (wired e wireless: differenti tipologie di cavi e di radiofrequenze) e in senso logico (distributed network); trasportano i dati e li indirizzano su una pluralità di devices terminali (host, end system; dunque non solo computer in senso stretto) facendo ricorso a un medesimo gruppo di protocolli, l‟Internet protocol suite. L‟Internet protocol (IP) identifica i nodi della rete, mentre il trasporto viene generalmente gestito mediante uno standard di commutazione a pacchetto (packet switching). I dati, tutti in formato digitale, comprendono le più svariate tipologie di informazioni, contenuti e servizi, come la posta elettronica (e- mail), le comunicazioni interpersonali sincrone formato testo (chat) e video (videoconference), lo streaming audiovideo, lo scambio di file tra terminali (peer-to-peer) e, infine, le pagine e tutte le altre forme di documenti/repertori connesse tra di loro mediante rimandi ipertestuali (hiperlink) e forme di indirizzamento univoco (URL Uniform resource locator) che compongono il servizio più conosciuto, il World Wide Web. Appare evidente che Internet e il Web non possono essere considerati sinonimi. Il World Wide Web è solo uno dei servizi supportati da Internet e, dal punto di vista della configurazione del network complessivo, rinvia al sottoinsieme di server che gestiscono documenti in formato HTML (Hypertext markup language), destinati a essere letti su terminali utente dai browser (Explorer, Netscape, Opera ecc.), attraverso un protocollo dedicato al trasferimento dati in formato ipertestuale HTTP (Hypertext transfer protocol). Solo nel 1995, a distanza di oltre trent‟anni dalle prime sperimentazioni, il Federal Networking Council (FNC) ha formulato una definizione di Internet (consultabile all‟indirizzo http://www.nitrd.gov/fnc/Internet_res.html) che costituisce un riferimento comune. «Internet si riferisce al sistema di informazione globale che (a) è logicamente interconnesso attraverso un address space (spazio degli indirizzi) unico e

Upload: others

Post on 12-Jun-2020

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

1

Alberto Marinelli

Internet e World Wide Web

In senso tecnico, Internet è un network di computer network: è infatti costituita da una serie di reti, private, pubbliche, aziendali, universitarie, commerciali, connesse tra di loro fino a raggiungere una dimensione di accesso globale. Le reti sono interconnesse in senso fisico (wired e wireless: differenti tipologie di cavi e di radiofrequenze) e in senso logico (distributed network); trasportano i dati e li indirizzano su una pluralità di devices terminali (host, end system; dunque non solo computer in senso stretto) facendo ricorso a un medesimo gruppo di protocolli, l‟Internet protocol suite. L‟Internet protocol (IP) identifica i nodi della rete, mentre il trasporto viene generalmente gestito mediante uno standard di commutazione a pacchetto (packet switching).

I dati, tutti in formato digitale, comprendono le più svariate tipologie di informazioni, contenuti e servizi, come la posta elettronica (e-mail), le comunicazioni interpersonali sincrone formato testo (chat) e video (videoconference), lo streaming audiovideo, lo scambio di file tra terminali (peer-to-peer) e, infine, le pagine e tutte le altre forme di documenti/repertori connesse tra di loro mediante rimandi ipertestuali (hiperlink) e forme di indirizzamento univoco (URL – Uniform resource locator) che compongono il servizio più conosciuto, il World Wide Web.

Appare evidente che Internet e il Web non possono essere considerati sinonimi. Il World Wide Web è solo uno dei servizi supportati da Internet e, dal punto di vista della configurazione del network complessivo, rinvia al sottoinsieme di server che gestiscono documenti in formato HTML (Hypertext markup language), destinati a essere letti su terminali utente dai browser (Explorer, Netscape, Opera ecc.), attraverso un protocollo dedicato al trasferimento dati in formato ipertestuale HTTP (Hypertext transfer protocol).

Solo nel 1995, a distanza di oltre trent‟anni dalle prime sperimentazioni, il Federal Networking Council (FNC) ha formulato una definizione di Internet (consultabile all‟indirizzo http://www.nitrd.gov/fnc/Internet_res.html) che costituisce un riferimento comune. «Internet si riferisce al sistema di informazione globale che (a) è logicamente interconnesso attraverso un address space (spazio degli indirizzi) unico e

Page 2: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

2 globale, basato sull‟Internet protocol (IP o protocollo di Internet) o le sue successive estensioni/sviluppi; (b) è in grado di supportare comunicazioni mediante la suite Transmission Control Protocol/Internet Protocol (TCP/IP) o le sue successive estensioni/sviluppi, e/o altri protocolli compatibili con l‟IP; (c) fornisce, utilizza e rende accessibili, sia pubblicamente che privatamente, servizi di alto livello che poggiano sui differenti strati di comunicazioni e di infrastrutture a esse correlate».

1. Le caratteristiche strutturali Rispetto alla molteplicità di reti digitali, Internet si differenzia storicamente e si caratterizza soprattutto in quanto standard, ovvero per il comune riferimento a protocolli di comunicazione pubblici: la suite di Protocolli Internet non ha un proprietario, è ampiamente documentata da istituzioni pubbliche sovranazionali e comunemente utilizzata da alcuni decenni a livello globale. Tutte le comunicazioni digitali basate su Internet hanno dunque un comune riferimento agli standard ma ciò non limita la variabilità e la possibile evoluzione nel tempo di singole applicazioni e servizi, così come l‟ulteriore differenziazione dei protocolli. Il network dei dispositivi connessi a Internet presenta infatti una molteplicità di strati, i cui livelli inferiori usano sempre i medesimi protocolli di rete, per garantire lo scambio di informazione tra i terminali collegati, mentre i livelli superiori si differenziano per meglio soddisfare specifici obiettivi di comunicazione. Si avrà così un unico protocollo a livello di rete (IP, Internet Protocol nelle versioni IPv4 e IPv6 cui faremo riferimento in seguito), pochi protocolli a livello di trasporto (soprattutto TCP, ma anche altri tra cui UDP – User datagram protocol impiegato per lo streaming audiovideo e il VoIP- Voice over IP), molti protocolli a livello applicativo (come per esempio, SMTP e POP3, impiegati per la posta elettronica e HTTP che caratterizza l‟ambiente Web).

Il groviglio di termini tecnici, la complessità delle architetture, la pluralità di sistemi tecnologici e la estrema differenziazione dei servizi descrive un universo in continua, accelerata trasformazione che sembra in grado di inglobare al suo interno tecnologie, sistemi mediali, forme culturali, stili di relazione sociale una volta rigorosamente segmentati e distinti. Ma questo universo complesso, storicamente prodotto per successive integrazioni e senza un‟autorità centrale che ne orientasse in maniera univoca lo sviluppo, fonda le sue enormi potenzialità di ulteriore espansione su principi assolutamente semplici: la univocità dei protocolli, la modularità della trasmissione dati per pacchetti, la struttura distribuita e ridondante del network. Questi principi non rappresentano solo componenti dell‟ingegneria di sistema ma hanno ispirato e sono stati a loro volta piegati in forme del tutto impreviste dagli usi sociali, dando vita a un ecosistema composto da reti di macchine e reti persone.

Page 3: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

3

Internet dunque non è solo una infrastruttura comunicativa veloce e affidabile ma anche un ambiente comunicativo e mediale aperto e tendenzialmente paritario che non pone istituzionalmente vincoli di accesso. In virtù della sua architettura decentralizzata può assicurare connettività ubiqua in un contesto tecnologico flessibile e adattivo, senza fare riferimento ad alcun criterio gerarchico e ad alcuna necessità strutturale di controllo centralizzato. La metafora della „rete‟, applicata sia a Internet che al suo principale servizio, il World Wide Web, sottolinea: (a) la possibilità per ogni nodo (inteso sia come computer o altro device terminale sia come utente) di essere sia emittente che destinatario di comunicazioni; (b) l‟assenza di un unico centro, vale a dire di un unico autore, di un unico progetto, di una gerarchia prestabilità tra aree più o meno importanti.

In una rete, infatti, tutti gli elementi, pur essendo efficacemente interconnessi, mantengono un alto grado di autonomia. Nel modello originario del mainframe computing, invece, diverse macchine lavorano congiuntamente ai medesimi task, come un unico organismo. Ma questo non significa che nell‟ecosistema di Internet non si siano determinate forme di gerarchizzazione funzionali alla gestione delle applicazioni e dei servizi. Anche se l‟Internet protocol rende tutti i nodi della rete potenzialmente uguali, i mercati, i contenuti, le tecnologie e i loro usi sociali hanno strutturato nel corso del tempo nette differenze dal punto di vista gerarchico e funzionale tra i vari nodi. L‟architettura di molti servizi (a partire dai più noti, come il Web e la posta elettronica) prevede infatti una distinzione dei nodi della rete tra server e client, tra sistemi (hardware e software) che mettono a disposizione contenuti e servizi e altri che li utilizzano attraverso i loro terminali connessi alla rete. Il caso in cui diversi terminali dialoghino effettivamente tra pari (peer to peer), al di fuori della logica client-server, riguarda un numero ristretto di applicazioni, anche se genera volumi di traffico tra i nodi della rete sempre più rilevanti in conseguenza della diffusione delle pratiche di file sharing: la condivisione e lo scambio di contenuti (musica, filmati, giochi ecc.) tra i terminali di singoli utenti, spesso aggirando le norme del copyright. La dimensione pubblica della rete Internet, in ogni caso, deriva non solo dalla condivisione di regole (protocolli) di comunicazione, ma anche dalla struttura di macchine server che rendono disponibili risorse e servizi per una molteplicità di terminali e per le esigenze differenziate degli utenti.

2. Origini e sviluppo di Internet

La configurazione che abbiamo descritto è originata da una serie di ipotesi scientifiche convergenti ma anche da istanze ideali spesso in forte contrapposizione, come le motivazioni di tipo altruistico di un piccolo gruppo di ricercatori rispetto agli interessi strategici del Dipartimento della Difesa USA. Queste matrici differenti hanno trovato

Page 4: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

4 storicamente una composizione e hanno contribuito a forgiare una struttura tecnologica, economica, culturale e sociale assolutamente unica che si fonda, in estrema sintesi su un diagramma (distributed network), una tecnologia (digital computer) e logica di gestione (protocol), che consente di organizzare il problema del dialogo e del reciproco controllo tra i nodi di una rete distribuita.

All‟origine di tutto, probabilmente, può essere posta la riflessione sulle diverse topologia delle reti di comunicazione e sulla loro specifica vulnerabilità rispetto a un attacco esterno, anche di tipo nucleare. Siamo alla fine degli anni Cinquanta del secolo scorso e Paul Baran, appena insediatosi alla Rand Corporation, lavora per un quinquennio (pubblica i suoi risultati nel 1964) su incarico del Governo USA per risolvere il problema. Dopo aver scartato la topologia a stella, allora in vigore, perché in una rete centralizzata è sufficiente distruggere l‟unico nodo centrale per interrompere qualsiasi forma di dialogo tra i nodi periferici, si orienta verso lo studio delle reti a maglie, con un‟architettura distribuita in cui ciascun nodo è insieme centro e periferia. In questo specifico caso la sopravvivenza – il funzionamento del network – è assicurata dalla ridondanza: come in un sistema stradale, la momentanea indisponibilità di alcuni nodi consente comunque di formulare percorsi alternativi, anche se più lunghi e originariamente imprevisti. La leggenda giornalisticamente tramandata narra dunque di una Internet inventata per sopravvivere a un attacco nucleare sovietico. In realtà, le ipotesi di Baran furono ignorate dagli apparati militari anche perché il corollario implicito nel modello di rete distribuita prevedeva la commutazione a pacchetto: l‟idea cioè che i messaggi (l‟informazione) potessero essere scomposti in piccoli pacchetti di dimensioni uniformi in grado di viaggiare indipendentemente l‟uno dall‟altro tra i nodi del network e di ricomporsi solo al termine del percorso, sul computer cui sono destinati. Lo sviluppo di questa tecnologia avrebbe comportato la transizione dal sistema analogico, allora usato nelle reti di telecomunicazione, al sistema digitale e né l‟industria civile né quella militare erano preparati a una simile trasformazione.

Per il sistema militare le idee di Baran tornano utili a distanza di un decennio, nel 1969, quando l‟Advanced Research Projects Agency (ARPA, in seguito DARPA) del Dipartimento della Difesa avvia il progetto del primo network (ARPANET) che utilizza la commutazione a pacchetto per condividere risorse e trasferire file tra computer di istituzioni scientifiche e degli enti dell‟amministrazione. Molti altri ricercatori nel corso degli anni Sessanta hanno nel frattempo lavorato in parallelo a comporre il quadro tecnologico e progettuale che consente ad ARPA di fungere da capofila nella sperimentazione del primo network di computer. In un certo senso, lo sviluppo della ricerca nella direzione delle „computer sciences‟ fu segnata dalla necessità per la stessa ARPA – agenzia creata da Eisenhower come risposta al lancio sovietico dello Sputnik – di trovare una

Page 5: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

5 nuova mission dopo che la NASA le succede nella gestione dei programmi spaziali e acquista crescente notorietà e accesso a cospicui fondi di dotazione. La nascente disciplina informatica si rivela fondamentale per le ricerche a lungo termine finalizzate a scopi bellici e Bob Taylor, direttore della divisione informatica dell‟ ARPA nel 1965, si trova di fronte al problema di riuscire a far parlare tra di loro costosissime apparecchiature, che a volte risiedono nello stesso edificio, per aumentare l‟efficienza e ridurre i costi. L‟ambiente di lavoro in cui opera è assolutamente effervescente e le relazioni con gli altri centri di ricerca universitari si svolgono in un clima di aperta collaborazione. A capo dell‟Information Processing Techniques Office dell‟ ARPA siede Joseph Carl Robnett Licklider, uno straordinario pensatore che, sulla scia di Vannevar Bush e del suo Memex, ha redatto nel 1960 un paper dal titolo Man-Computer Symbiosis, che riflette sulla necessità di individuare le interfacce tecnologiche per favorire un‟interazione più semplice e immediata tra il computer e i suoi utenti. Si deve a Licklider anche la prima descrizione delle interazioni sociali possibili attraverso la pratica del networking, in una serie di appunti scritti nell‟agosto del 1962 sul concetto di Galactic Network: un set di computer interconnessi attraverso i quali chiunque può facilmente accedere a dati e programmi da qualsiasi luogo fisico della terra. Un‟idea che, perlomeno nel suo spirito, appare molto simile all‟Internet che conosciamo oggi.

Anche la sperimentazione delle modalità per far „parlare‟ i computer tra loro compie in quel periodo molti passi in avanti: sempre nel 1965 Lawrence G. Roberts riesce a connettere il computer TX-2 dal Massachussets al computer Q-32 in California attraverso una linea telefonica dial-up a bassa velocità. L‟esperimento conferma che i computer sono in grado di lavorare insieme ma non attraverso il tradizionale sistema di switch telefonici che si rivela inadeguato per questo scopo. L‟attenzione dei ricercatori torna dunque sull‟idea del packet switching formulata non solo da Paul Baran ma da altri ricercatori come Donald Davies del National Physical Laboratory di Londra e Leonard Kleinrock che, a partire dal 1961 nei laboratori del MIT, aveva cominciato a riflettere sulla fattibilità teorica della costruzione di un network di computer che si scambiano pacchetti di dati. Roberts inizia a collaborare nel 1966 con il gruppo di Bob Taylor e l‟ARPA assicura i finanziamenti necessari per sviluppare il prototipo di network tra computer che si avvale della commutazione a pacchetto e assicura una velocità di trasmissione di 50 kbps. Il Network Measurement Center della UCLA, il laboratorio allora diretto da Kleinrock, è individuato come primo nodo della nascente ARPANET; il secondo nodo è collocato presso lo Stanford Research Institute, dove Doug Engelbart lavora al suo progetto Augmentation of human intellect (che include NLS, il primo prototipo di sistema ipertestuale): tra questi computer avviene nel 1969 la sperimentazione del primo messaggio host-to-host. Negli anni seguenti vengono

Page 6: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

6 aggiunti rapidamente molti altri computer appartenenti a centri di ricerca e nel dicembre 1970 il Network Working Group termina lo sviluppo primo protocollo host-to-host di ARPANET, che prende il nome di Network control protocol (NCP). La prima dimostrazione pubblica di ARPANET viene organizzata da Robert Kahn nel 1972 alla International Computer Communication Conference; nello stesso anno Ray Tomlinson scrive e sperimenta la versione originaria del software che diventerà la principale applicazione della rete: la posta elettronica (e-mail).

Si può a ragione sostenere che ARPANET si è evoluta fino a diventare l‟Internet che conosciamo sulla base di una configurazione che ha consentito la formazione di un network di network: l‟open architecture networking. Secondo questo approccio, gli snodi (e i network) individuali possono essere sviluppati indipendentemente l‟uno dall‟altro (tutta la prima sperimentazione di Kahn è compiuta su un packet radio network) con interfacce personalizzate in relazione agli usi e vengono connessi agli altri network tramite un funzione di meta-livello: l‟Internetworking architecture. Questa idea di un network ad architettura libera, introdotta nel 1972 da Kahn, e sperimentata attraverso il protocollo NCP, si sostiene sul principio che ciascun nodo della rete non agisce in quanto componente subordinata di un altro ma su base paritaria (in quanto peer) nella funzione di offrire agli altri nodi servizi end-to-end. Kahn si rende rapidamente conto della necessità di sviluppare una nuova versione del protocollo di controllo del network (NCP) che non ha la possibilità di definire gli indirizzi delle macchine cui sono destinate le comunicazioni né di recuperare gli eventuali pacchetti andati perduti nella trasmissione. Il nuovo protocollo, che sarà più in avanti chiamato TCP/IP, agirà come un protocollo di comunicazione, alla cui base sono posti quattro principi fondamentali:

(a) i singoli network, pubblici o privati, che si connettono a Internet mantengono la loro autonomia e a nessuno sarà permesso di richiedere cambiamenti al loro interno;

(b) le comunicazioni tra i nodi del network seguono il criterio del best effort: se un pacchetto non raggiunge la sua destinazione finale, sarà immediatamente ritrasmesso dal nodo sorgente;

(c) in funzione di connessione tra i network verranno utilizzate delle black boxes che non manterranno alcuna traccia dei singoli pacchetti di dati che i nodi si scambiano (i dispositivi di rete ora conosciuti con termini quali gateway e router);

(d) non ci sarà alcuna forma di controllo globale rispetto al livello delle singole operazioni.

A questi principi si aggiungono una serie di corollari di estrema rilevanza:

(e) il network può funzionare solo sulla base di un sistema unitario e univoco di indirizzamento dei pacchetti di dati;

(f) gli algoritmi debbono gestire sulla macchina emettitene e sulla macchina destinataria il controllo

Page 7: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

7 dei pacchetti di dati mancanti o deteriorati in modo da consentirne la ritrasmissione in modo efficace;

(g) il network si deve interfacciare con terminali che utilizzano sistemi operativi diversi.

Per sviluppare il protocollo di trasmissione Kahn chiede aiuto a Vinton Cerf dell‟Università di Stanford, che aveva maturato un lunga esperienza con NCP, il protocollo fino ad allora utilizzato nelle sperimentazioni. Allo loro collaborazione si deve la decisione di dividere il protocollo in due parti: il protocollo Internet (IP) che si occupa dell‟indirizzamento, cioè di inviare il pacchetto e di instradarlo attraverso gateway e router fino a farlo giungere a destinazione; il TCP (Transmission control protocol) che si occupa, invece, di segmentare le informazioni in pacchetti con una ampiezza massima di 1500 byte, di indicare l‟applicazione che ha prodotto i dati e di verificare che i pacchetti siano arrivati correttamente all‟end-system, dove possono essere ricomposti e ordinati secondo la esatta sequenza di origine. Nello stesso contesto di ricerca viene definito anche un protocollo alternativo l‟UDP (User datagram protocol) per la gestione di traffico a pacchetti in ambiente IP, che rappresenta il primo embrione del processo di differenziazione nelle tecnologie di trasporto dati.

La suite TCP/IP costituisce la grammatica di base che consente a network e a dispositivi terminali eterogenei di parlare la stessa lingua nel momento in cui si scambiano informazioni. La commutazione a pacchetto rappresenta anche l‟estensione del principio della modularità, proprio dei formati digitali, all‟ambito delle connessioni di rete. I singoli pacchetti, per arrivare alla piattaforma hardware e software cui sono destinati, possono seguire percorsi che toccano nodi differenti della rete e viaggiare sulla stessa connessione insieme ad altri pacchetti assolutamente eterogenei per origine, destinazione finale e contenuto informativo (per esempio: immagine in movimento insieme a testo). Il principale vantaggio tecnologico della commutazione a pacchetto rispetto a una commutazione punto-punto (in cui la linea è vincolata per lo scambio di informazioni tra i due end-system, indipendentemente dal traffico generato) è che si riesce a saturare la larghezza di banda della linea di connessione disponibile e a flessibilizzare il traffico tra i nodi della rete.

Il lavoro sui protocolli svolto da Kahn e Cerf nei primi anni Settanta determina le componenti tecnologiche di base che consentiranno la sperimentazione di Internet prima nei centri di ricerca militari e civili (sotto il nome di ARPANET) e, successivamente la sua trasformazione in una rete pubblica utilizzabile anche per scopi commerciali. La natura aperta dei protocolli e la configurazione non centralizzata e paritaria dei nodi, ispirata dai loro principi, ha contrassegnato in maniera indelebile il successivo sviluppo di Internet: l‟assenza di vincoli e barriere ha favorito lo sviluppo internazionale della rete; il coinvolgimento delle istituzioni accademiche e dei centri di ricerca ha stimolato la crescita di

Page 8: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

8 comunità autonome sul piano della capacità di innovazione e orientate al lavoro cooperativo sugli standard e gli applicativi. La configurazione aperta ha consentito dunque, che questo nuovo ambiente comunicativo evolvesse, a differenza di quasi tutti gli altri sistemi mediali, senza un progetto centralizzato ma sulla base delle scelte, delle professionalità e della sensibilità di chi vi operava e contribuiva a costruirlo. Ne è scaturito un sistema di rete semplice – forse addirittura „stupido‟ e ridondante se paragonato a una rete telefonica progettata nello stesso periodo – perché finalizzato a una sola operazione: lo smistamento fino al destinatario (end-to-end) di un pacchetto di dati, senza la necessità di alcun intervento o controllo. Un sistema a intelligenza distribuita tra i nodi, che può sopportare molto più agevolmente incidenti o guasti e crescere in maniera modulare: basta aggiungere un nodo e non occorre riconfigurare ogni volta l‟architettura complessiva del sistema.

La necessità di costruire un sistema di meta-regole pubbliche, che potesse essere utilizzato da qualsiasi organizzazione o società commerciale interessata a rendere interoperabili i sistemi e interscambiabili le informazioni, era già molto chiara al gruppo di lavoro che sperimenta negli anni Settanta la suite TCP/IP e che accompagna la migrazione, avvenuta il primo gennaio 1983, di ARPANET verso il TCP/IP. In quel preciso momento, pur nell‟ambito di una strategia di ininterrotta cooperazione tra i centri di ricerca civili e militari, viene creata una seconda rete, MILNET, a uso esclusivo delle strutture del Dipartimento della Difesa USA. L‟ambiente iniziale di ARPANET, formato da tre nodi, si accresce rapidamente e punta a incorporare differenti forme di network e di comunità di ricerca e sviluppo. L‟ampio sviluppo di LAN (Local area network) e la veloce diffusione del personal computer nel corso degli anni ottanta fanno da volano alla sperimentazione di Internet, ma il passaggio dalla piccola ARPANET a un sistema composto da network fortemente differenziati impone una serie di sfide assolutamente inedite. I network sono divisi in classi di ampiezza e agli indirizzi numerici degli host sono assegnati univocamente dei nomi attraverso il DNS (Domain name system; cfr. ora www.acm.org), sistema creato da Paul Mockapetris, che trasforma gli host name gerarchici in indirizzi Internet tramite un meccanismo scalabile ripartito.

Procede in parallelo il lavoro per rendere effettivamente interoperabile e aperto il network, cercando di ricondurre a una tecnologia di interconnessione universale e pubblica le reti che impiegano sistemi di protocollazione differenti. La gran parte di questi network è promosso da agenzie pubbliche o da università; esistono però anche iniziative commerciali come USENET, il network creato dalla compagnia telefonica AT&T e basato sul protocollo di trasmissione UUCP (Unix to unix copy protocol) per i sistemi operativi Unix. Lo stesso utilizzo del termine Internet (con l‟iniziale maiuscola) si accredita per operare una

Page 9: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

9 differenziazione tra le reti che impiegano il TCP/IP rispetto alle altre non ancora convertite a quello che si avvia ad essere lo standard pubblico e universale. Nel 1985 la National Science Foundation decide di utilizzare lo standard TCP/IP per il suo network (NSFNET), con l‟obiettivo di estendere l‟infrastruttura di rete a un‟area molto più estesa e supportare la comunità accademica e di ricerca: nasce così la prima dorsale (backbone) Internet degli Stati Uniti. Lo sviluppo decisivo della connettività di rete è assicurato per tutti gli anni Ottanta dall‟intervento delle agenzie governative statunitensi e europee che si preoccupano di finanziare i costi per la messa in opera dei collegamenti transoceanici, di creare e mantenere la rete dei Network access point nei campus universitari e nei centri di ricerca, di promuovere la riflessione e la formulazione dei primi documenti che pongono le regole del nuovo ambiente comunicativo in formazione. La National Science Foundation, sotto la direzione di Kahn e Kleinrock, produce due report, Towards a national research network nel 1988 e Realizing the information future: The internet and beyond, nel 1994, che pongono con grande chiarezza il problema di favorire lo sviluppo della società dell‟informazione promuovendo la realizzazione di reti a larga banda, iniziativa comunemente identificata attraverso l‟etichetta di „autostrade dell‟informazione‟.

La costruzione di un sistema di protocolli aperti assicura le basi per la rapida diffusione delle dorsali di rete Internet a livello planetario e per il progressivo assorbimento di servizi concorrenti come il Minitel in Francia o il network commerciale AOL (American on line) negli Stati Uniti, strutturati come sistemi di rete chiusi, proprietari. In modo assolutamente coerente, le organizzazioni che si sono assunte la responsabilità di espandere e regolamentare Internet come rete ad accesso pubblico e universale progettano le regole della coabitazione con iniziative di natura commerciale, sia nella gestione delle dorsali di rete, progressivamente affidate per la manutenzione e lo sviluppo a società di telecomunicazioni private (il backbone NSFNET viene privatizzato nel 1995), sia nella valorizzazione di nuove opportunità di remunerazione di contenuti e servizi. Il sistema di regolamentazione viene affidato nei primi anni Novanta a organismi di natura pubblica come l‟IAB (Internet architecture board), che opera d‟intesa con l‟Internet Society nella definizione e nella revisione degli standard. Sono poste in questo modo le basi per lo sviluppo di quel grande servizio, il World Wide Web, in cui confluiscono attività commerciali e attività senza fini di lucro, che si diffonde a livello planetario e che nella considerazione dei non esperti di fatto coincide con la stessa Internet.

3. La nascita del World Wide Web Il World Wide Web (conosciuto anche come Web

o W3) – come abbiamo richiamato nella definizione proposta all‟inizio della voce – è un sistema di documenti in formato ipertestuale, posti in relazione

Page 10: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

10 per mezzo di link e accessibili mediante Internet. Per mezzo di un applicativo che prende il nome di web browser, istallato su una macchina client (non solo un Personal Computer ma anche uno schermo televisivo, un palmare, un telefono cellulare ecc.), l‟utente può scaricare (downoload) dai web server e navigare (sfogliare) interattivamente attraverso link i repertori ipertestuali organizzati in pagine web, che contengono testo, immagini, video e altri formati multimediali (suoni, animazioni, slide show ecc.). Il Web è stato concepito in Europa, al CERN di Ginevra, sulla base degli studi portati avanti nel corso degli anni Ottanta da Tim Berners-Lee sul progetto ENQUIRE e formulati in una prima stesura in un documento del 1989 sulla gestione ipertestuale in rete dei documenti dello stesso centro di ricerca. La proposta viene formalizzata con il contributo di un altro ricercatore CERN, Robert Cailliau, in un paper dal titolo WorldWideWeb: Proposal for a HyperText Project nel novembre 1990. Entro Natale dello stesso anno lo sviluppo laboratoriale dell‟ipotesi progettuale è concluso: il primo web server è in grado di rilasciare la prima web page con la descrizione del progetto al primo web browser che è in grado sia di visualizzare sia di editare documenti ipertestuali. Il 6 agosto del 1991 Berners-Lee „posta‟ (la nuova forma verbale fa riferimento all‟atto di rendere disponibile un testo in uno spazio di pubblicazione condiviso in rete) una sintesi del progetto World Wide Web sul newsgroup (uno specifico spazio di discussione in rete creato per discutere di un argomento ben determinato) alt.hypertext e segna ufficialmente il debutto del Web come servizio pubblicamente accessibile.

L‟idea di un sistema di documenti in formato ipertestuale non nasce con il lavoro di ricerca di Berners-Lee ma affonda le sue radici negli anni Sessanta, nel progetto Xanadu proposto da Ted Nelson, il primo a utilizzare l‟espressione „ipertesto‟, e nel citato NLS (oN-Line system) di Douglas Engelbart. Alcune delle idee portanti possono però essere fatte risalire alle straordinarie riflessioni proposte nel 1945 da Vannevar Bush nel saggio As we may think, in cui viene proposta una «meccanizzazione della conoscenza scritta» in modo da rendere la memoria planetaria completamente accessibile e utilizzabile da ciascun individuo. Bush pensa la sua macchina, il Memex come «un‟estensione personale della memoria»: un dispositivo tecnologico (allora basato su leve, tastiera e proiettore di microfilm) in grado di memorizzare tutte le documentazioni e le comunicazioni personali per richiamarle e manipolarle con efficienza e facilità d‟uso, seguendo i principi della indicizzazione associativa, propria di ciascun utilizzatore della macchina. Berners-Lee sviluppa in modo coerente le intuizioni sulla matrice ipertestuale e sulla logica associativa sottostante alla funzione del link e le innesta all‟interno del nascente ambiente di rete. Il nuovo modello differisce dai precedenti sistemi ipertestuali perché i link sono esclusivamente unidirezionali e puntano verso una risorsa di rete,

Page 11: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

11 univocamente indirizzata attraverso la sintassi del sistema URI (Uniform resource identifier). Se da un lato, questa scelta progettuale semplifica la gestione delle pagine web e valorizza l‟autonomia dei singoli nodi, dall‟altro pone strutturalmente il problema dei link interrotti, nel caso in cui la risorsa non è più disponibile o ha cambiato indirizzo sulla rete.

Il 30 aprile 1993 il CERN dichiara che il World Wide Web è un ambiente assolutamente libero e gratuito, mentre in parallelo sui server Internet che utilizzano Gopher, un protocollo sviluppato dall‟Università del Minnesota per cercare e rintracciare risorse di rete, fino ad allora comunemente impiegato, vengono poste alcune limitazioni. Si determina così una migrazione dei server Internet che rendono disponibili risorse da un sistema all‟altro, mentre contemporaneamente si diffonde il primo Web browser dotato di interfaccia grafica utente: Mosaic, progettato da Marc Andreessen dell‟Università dell‟Illinois Urbana-Champaign, sulla base di un finanziamento dell‟High Performance Computing and Communication Act, promosso nel 1991 dall‟allora Vice Presidente Al Gore. L‟insieme di eventi fa da detonatore per la rapidissima diffusione del Web e traccia la sua successiva evoluzione da sistema di supporto alla ricerca frequentato da alcune migliaia di tecnici in spazio pubblico aperto anche a informazioni e servizi commerciali, accessibile da utenti non necessariamente esperti all‟uso del computer. La responsabilità dell‟evoluzione e della dichiarazione di conformità dei protocolli e degli standard associati al Web è attribuita nel settembre del 1994, al World Wide Web Consortium (W3C), una organizzazione costituita presso il Massachusetts Institute of Technology e diretta da Tim Berners-Lee.

Nel corso degli anni Novanta in tutti i paesi del mondo si diffondono gli ISP (Internet service provider), organizzazioni commerciali che offrono a singoli utenti residenziali o a imprese l‟accesso a Internet e alcuni servizi collaterali, come la gestione delle caselle personali di posta elettronica, la gestione di spazio (hosting) per la pubblicazione on line di pagine web, la registrazione e la manutenzione di un „dominio‟, cioè di un indirizzo univoco nel sistema URI (per es., http://www.comune.roma.it) che appartiene a un proprietario e costituisce un nodo di rete in cui sono disponibili a vario titolo risorse e servizi di cui è (anche) legalmente responsabile. Le società di telecomunicazione, che esercitano il controllo sulle reti fisiche, svolgono normalmente la funzione di ISP di primo livello, anche perché assicurano la messa in opera e l‟aggiornamento delle dorsali Internet. Gli utenti privati vengono allacciati direttamente dalle società di TLC o da rivenditori del servizio di accesso al Web attraverso il modem, un dispositivo che rende possibile il traffico dati tra sistemi informatici (web client/web server), attraverso la normale rete telefonica per il traffico voce o altre tipologie di cavo o radiofrequenza. Il caratteristico rumore del modem, che compone il numero di telefono dell‟ISP e proietta il computer in

Page 12: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

12 rete, accompagna le esperienze pionieristiche degli early adopters (knowledge workers, appassionati di computer, etc.) che si affacciano nel cyberspazio (una sincrasi di cibernetica e spazio): così viene etichettato il nuovo ambiente facendo ricorso al termine coniato da William Gibson, autore canadese di fantascienza.

4. Lo sviluppo del Web Nell‟arco di pochissimi anni (dal 1996 al 2000)

emerge con estrema rapidità l‟ecosistema composto da tecnologie, processi comunicativi, modelli di business che ora possiamo contrassegnare con l‟espressione Web 1.0. È un Web composto prevalentemente da documenti di tipo testuale con qualche immagine e pochissimi suoni o video, organizzati in pagine HTML statiche; un Web accessibile mediante connessioni dial-up, normalmente fatturate a tempo, che supportano non oltre 50k di larghezza di banda, del tutto insufficienti per i formati multimediali. Molti sono gli elementi sfavorevoli: la instabilità della tecnologia, le imprecisioni delle pagine costruite con il linguaggio di formattazione HTML, i costi orari del servizio di accesso e l‟impossibilità di telefonare mentre si usa il modem. Non sono però tali da ostacolare un immediato successo che dal mondo dell‟accademia e della ricerca – interessato soprattutto alle possibilità di free publishing e di diffusione universale della conoscenza – travalica in quello commerciale e dell‟informazione, facendo crescere in ogni ambito sociale l‟esigenza di essere presenti e attivi nell‟emergente mondo della Rete. Cresce a dismisura il numero degli host (i server che ospitano i domini registrati) e il numero delle pagine pubblicate on line; le società commerciali scoprono che la loro presenza in rete non è un optional e che le possibilità assicurate da un sistema di comunicazione interattiva vanno oltre la semplice duplicazione on line delle brochure aziendali: attraverso il Web si possono gestire facilmente relazioni con gli utenti/clienti e attivare vere e proprie attività transattive (e-commerce), non solo per beni e servizi immateriali (come per es., la prenotazione e l‟emissione di biglietti) ma anche per delocalizzare completamente la propria sede di vendita (come per es., i libri comprati su Amazon.com il più grande bookstore del mondo).

Il grande successo commerciale scatena la prima guerra dei browser in cui Microsoft, dominante nei sistemi operativi dei Pc e nelle suite di software per il lavoro d‟ufficio, riesce ad affermare la sua supremazia anche nell‟emergente ambiente Web: il browser Explorer viene incluso in Windows e, nonostante la battaglia legale che si trascina per anni negli Stati Uniti e in Europa, conquista la grande maggioranza del mercato, trovando un punto di forza nella crescente integrazione delle risorse disponibili sul Web nella normale routine di lavoro nelle imprese, nella pubblica amministrazione, nella scuola e nell‟università. Il crescente interesse dei mercati finanziari dei paesi avanzati nella nascente Web

Page 13: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

13 economy dà anche origine a una crescita repentina e quasi incontrollata del valore di borsa delle società che operano nelle tecnologie informatiche e, in particolare, dei nuovi settori che controllano l‟accesso alla rete (ISP), l‟offerta e il recupero di informazioni (portali, motori di ricerca), i servizi commerciali (vendite, aste on line). Le nuove imprese prendono il nome di dot-com (dal suffisso che le identifica nel sistema URI in quanto servizi commerciali) e mettono in pratica una strategia opposta rispetto a quelle diffuse nei mercati tradizionali: puntare sull‟espansione rapidissima della base dei propri clienti e dunque, della quota di mercato controllata, indipendentemente dalla redditività immediata. La scommessa degli investitori si alimenta sulla fiducia nelle potenzialità economiche derivanti dall‟esuberante sviluppo del nuovo ambiente di rete, sulla disponibilità di venture capital, sull‟attività speculativa che porta le dot-com a incrementare il loro valore di borsa a ritmi così veloci da sfuggire a qualsiasi controllo razionale dei mercati. La dot-com bubble tocca il suo apice agli inizi del 2000, a ridosso di un evento emblematico: in virtù del valore raggiunto sul mercato azionario (Nasdaq), America Online, il più grande fornitore di accessi alla rete negli USA, si fonde alla pari e acquisisce il controllo operativo di Time Warner, la più grande media company, proprietaria di giornali, reti televisive, case di produzione cinematografica, libreries musicali. La rottura della bolla speculativa nei mesi successivi comporterà un clamoroso ridimensionamento dei valori di borsa, spazzerà via entità meramente speculative ma lascerà sopravvivere imprese come Yahoo e Google (recupero dell‟informazione, servizi di community), Amazon (vendita di libri), E-bay (aste on line) che manterranno un ruolo da protagonisti nella nuova fase di sviluppo del Web.

La fase di passaggio dal Web 1.0 al Web 2.0 è contrassegnata da tendenze di grande rilievo: dalle macerie della bolla speculativa emergono nuovi assetti tecnologici ma soprattutto nuovi comportamenti sociali che trasformano ancora una volta radicalmente l‟ecosistema di rete. La diffusione di sistemi di connettività a maggiore ampiezza di banda (su cavo a fibra ottica o su rete telefonica tradizionale mediante aDSL – Asymmetric digital subscriber loop), avviata dalle società di telecomunicazione, evita la sovrapposizione nelle utenze domestiche e commerciali tra traffico voce e traffico dati; consente di visualizzare formati multimediali con accettabile qualità, anche se non ancora a pieno schermo; e soprattutto fa da volano alla pratica della condivisione di file (file sharing) tra utenti in modalità peer-to-peer: all‟interno della rete Internet non esistono posizioni fisse di client e server (come nel classico modello Web 1.0), ma singoli nodi equivalenti (peer) che svolgono entrambe le funzioni. La pratica del file sharing emerge tra il 1999 e il 2000 con il caso Napster, un servizio che, facendo ricorso a un indirizzario costantemente aggiornato su un server centrale, consente con grande

Page 14: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

14 facilità agli utenti il reperimento, la condivisione e lo scambio di file musicali in formato MP3 (uno standard di compressione che riduce notevolmente, a circa 1/10, le dimensioni del file in formato digitale, mantenendo pressoché inalterata la qualità percepita dall‟orecchio umano). Napster provoca il primo fenomeno di aggiramento di massa delle leggi sul copyright ed è costretto a interrompere la propria attività a settembre del 2001 a seguito di una azione legale intentata dalle major discografiche. Si diffondono però con estrema rapidità negli anni seguenti sistemi peer-to-peer alternativi (Gnutella, Bittorrent, eDonkey), che rinunciano a qualsiasi forma di registro centralizzato e sono più difficili da perseguire sul piano legale. Il traffico generato su Internet da questi sistemi è cresciuto vertiginosamente ed è stimato da alcune fonti (novembre 2007) ormai uguale se non superiore al tradizionale traffico Web. Certamente la pratica del file sharing ha rivoluzionato le modalità di accesso e di consumo dei contenuti digitalizzati e coinvolge un gruppo sempre più vasto di utenti Internet e la quasi totalità dei giovani: si è infatti progressivamente estesa dalla musica a tutti i prodotti dell‟industria culturale (film, televisione, giochi, registrazione di eventi dal vivo ecc.); ha generato nuovi bisogni tra le persone e alimentato la crescita e la diffusione di competenze; ha indicato un nuovo modello potenziale di mercato e di distribuzione dei beni digitali.

Anche in altri ambiti, l‟evoluzione tecnologica ha favorito comportamenti sociali di tipo collaborativo tra gli utenti di tecnologie di rete. L‟originaria staticità delle pagine Web è stata superata attraverso l‟introduzione di linguaggi di scripting (come JavaScript), dal lato dei sistemi client, e attraverso lo sviluppo di linguaggi integrati di nuova generazione dal lato dei Web Server (JSP, PHP, ASP). La diffusione di queste soluzioni sposta l‟asse di sviluppo in direzione dei Web Service, alla cui realizzazione e diffusione lavorano non solo le imprese commerciali che rilasciano software proprietario ma anche la comunità degli sviluppatori Open Source. Il movimento si è inizialmente diffuso nel processo di sviluppo cooperativo di Linux (un kernel, divenuto ora sistema operativo, originariamente impostato e distribuito via Internet dallo studente finlandese Linus Torvalds), sulla base del principio che il codice sorgente del software debba essere reso disponibile e che tutti gli utenti debbano godere dei vantaggi dell‟attività collettiva di stesura e continuo miglioramento dei programmi. Sotto la guida di Bruce Perens e Eric S. Raymond, il movimento Open Source si differenzia dalle posizioni radicali del free software con cui Richard Stallman aveva in modo pionieristico fin dagli anni Ottanta impostato la battaglia contro la posizione di monopolio dei produttori di software commerciali, e si apre alla collaborazione con grandi imprese quali IBM, Sun Microsystems, HP. La tensione collaborativa non coinvolge solo il ristretto universo degli sviluppatori ma si riverbera su una molteplicità

Page 15: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

15 di attività e servizi che vengono attivati nell‟ambiente di rete. I sistemi di gestione dei contenuti (CMS – Content management system), molti dei quali sviluppati in ambito Open Source, rendono più dinamico e aperto il mondo Web facilitando la creazione collaborativa dei contenuti e l‟organizzazione del lavoro redazionale. Nel gennaio del 2001 viene lanciata Wikipedia, un‟enciclopedia on line strutturata come un ipertesto e basata su un software collaborativo (wiki) che permette agli utilizzatori di trasformarsi in redattori ampliando e/o integrando le voci presenti sulla base di procedure di revisione e controllo basate a loro volta sulla condivisione delle funzioni.

Sempre negli stessi anni comincia a diffondersi la pratica di costruire e aggiornare Blog, pagine web dinamiche gestite mediante un CMS offerto gratuitamente da molti fornitori di servizi e personalizzate attraverso una serie di template (una funzione di programmazione che descrive lo schema di visualizzazione prescindendo dai contenuti che vengono richiamati solo al momento dell‟esecuzione) che ne delineano il layout grafico. Il Blog diviene l‟espressione dell‟autonomia individuale nell‟ambiente di rete e uno dei contesti comunicativi che contribuisce a ridefinire il confine tra spazio privato e spazio pubblico: è il luogo dove si raccontano storie ed esperienze, generalmente in forma di diario, si forniscono informazioni e si esprimono opinioni, si tiene una traccia (log) dei propri pensieri e dei propri stati d‟animo. Ma non è uno spazio vissuto in isolamento: ogni contributo lasciato on line è generalmente riferito a una o più tag (elementi sintattici con cui si marcano i documenti al fine di organizzarli e renderne più agevole il reperimento e la fruizione) e può essere letto e commentato in tempo reale da tutti gli interessati e dallo stesso autore, che può intervenire quando desidera sui commenti altrui. La dimensione relazionale si esprime non solo nella partecipazione alle discussioni ma anche nello scambio di link: si segnalano nel blogroll i Blog degli amici o di chi si ritiene in sintonia con il proprio pensiero o comunque utile da consultare; si aggiungono contenuti o risorse disponibili nell‟ambiente di rete; si consente a chi lo desidera di importare liberamente i contenuti del Blog e di valorizzarli autonomamente in altri contesti comunicativi della rete.

In maniera più o meno graduale la diffusione delle connessioni veloci always on e di standard per l‟interoperabilità ha permesso di creare un ambiente on line dove, a differenza di quanto accadeva nella configurazione del primo Web, sfumano i confini tra i ruoli di server e client, di „autore‟ e „lettore‟. L‟interattività su cui da sempre si fondano Internet e Web diventa sempre più semplice da sperimentare, accessibile a un‟utenza sempre più ampia; sistemi orizzontali in cui i contenuti vengono prodotti „dal basso‟, direttamente dagli utenti, si rivelano sempre più diffusi e coinvolgenti; la distribuzione dei beni digitali via Internet offre nuove opportunità di mercato, incontra sensibilità e interessi fortemente

Page 16: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

16 differenziati degli utenti, determina in modo radicalmente diverso il ciclo di vita e le possibilità di remunerazione dei contenuti. In questo clima, nel 2004, Tim O‟Really promuove la prima Web 2.0 Conference, con l‟obiettivo di riflettere sulle trasformazioni che stanno contrassegnando l‟ambiente delle tecnologie di rete e di renderne evidente la differenziazione evolutiva. In realtà il cambiamento non è segnato tanto dall‟introduzione di tecnologie di rete assolutamente innovative (per questo motivo Berners-Lee contesta la possibilità stessa di usare l‟espressione Web 2.0), quanto dall‟affermazione di standard e idee progettuali in cui gli utenti sembrano riconoscersi al punto da decretarne uno straordinario successo.

Dal punto di vista dell‟evoluzione tecnologica, il Web 2.0 si inscrive all‟interno di una più generale tendenza verso la multicanalità: i medesimi contenuti vengono erogati in forme molteplici, su diversi canali, con diverse interfacce, variamente ricombinati e ibridati. Secondo questo principio i contenuti di un Blog possono essere automaticamente importati da un qualsiasi altro Blog; i principali portali di informazione e servizi sviluppano interfacce dedicate a dispositivi trasportabili (palmari, smart phone); i proprietari di raffinati servizi on line (come Google o Yahoo) li mettono gratuitamente a disposizione di chiunque (mediante tecnologie che gestiscono Open Api – Application programming interface). La sostenibilità tecnologica dei Web Service che puntano sull‟interscambio tra piattaforme è affidata allo sviluppo e alla diffusione di XML (eXtensible markup language), un metalinguaggio estremamente flessibile e particolarmente efficace per la condivisione di dati tra sistemi diversi. Linguaggi derivati dall‟XML (come Soap, Xml-Rpc, Wsdl) permettono di scambiare informazioni strutturate tra terminali connessi a Internet, basandosi generalmente sul protocollo HTTP e consentendo a una molteplicità di operatori di distribuire con facilità servizi per i quali non detengono il software, che invece risiede altrove, secondo il principio del network as a platform. L‟XHTML, linguaggio per descrivere pagine HTML in conformità agli standard XML, permette una più efficace separazione di contenuti e layout, e quindi la possibilità di personalizzare facilmente l‟aspetto con cui una medesima risorsa viene presentata a differenti terminali utente. Ricorre a XML anche il formato RSS (Resource description framework Site Summary), con cui vengono esposti i contenuti di un sito frequentemente aggiornato (per es., di news), di modo che l‟utente possa scegliere come e quando leggerli o aggregarli sul proprio terminale, senza dover digitare l‟URL del sito in questione e navigare l‟originale pagina Web. Oltre alla diffusione di standard che facilitano la collaborazione tra piattaforme, il Web 2.0 comporta decise innovazioni anche rispetto alle interfacce di navigazione, che si allontanano sempre più dal modello della pagina di testo e si avvicinano all‟esperienza di immediatezza propria del lavoro sul desktop del computer, in

Page 17: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

17 particolare estendendo il ricorso alla multimedialità e alla possibilità di manipolare oggetti con un feedback in tempo reale. Tale tendenza viene favorita da una particolare combinazione di Javascript e XML, detta Ajax (Asynchronous javascript and XML) grazie alla quale il flusso di dati tra server e client scorre in background, senza necessariamente determinare ciò che compare sullo schermo, ed è possibile per l‟utente svolgere una serie di piccole operazioni sulla pagina ottenendo un feedback immediato, senza attendere che la pagina venga ricaricata dal browser per intero.

L‟evoluzione dei Web Service consente l‟elaborazione di piattaforme per il web marketing che puntano a remunerare non solo servizi/contenuti che intercettano l‟interesse del maggior numero di utenti ma anche quelli che inseguono i bisogni di nicchie di mercato sufficientemente ristrette e specifiche, fino al limite della relazione one-to-one. La flessibilità delle piattaforme on line rende in questo modo sostenibili modelli di business che contemplano un numero molto limitato di utenti/clienti, purché precisamente identificati: da un lato, infatti, la distribuzione on line e l‟abbattimento degli oneri di intermediazione riducono drasticamente i costi di entrata e di permanenza sul mercato; dall‟altro, la comunicazione pubblicitaria può essere selettivamente orientata e puntare sull‟interesse e il coinvolgimento di destinatari non indifferenziati, come avviene sui media di massa. Su questo nuovo modello distributivo è costruito il concetto di Long Tail (coda lunga) descritto nel 2004 da Chris Anderson in un articolo sulla più famosa rivista on line, Wired: nel “mondo dell‟abbondanza” in cui tutti i contenuti possono essere esposti sugli “scaffali” on line, i proventi non derivano tanto dagli incassi dei best sellers destinati al consumo di massa quanto dalla vendita di tanti diversi articoli di nicchia, dei quali vengono distribuite poche copie a costi comprensibilmente contenuti. Puntando sulla autonoma selettività dei pubblici e sulla loro capacità di aggregarsi in communities, si riesce ad allungare a dismisura il tempo di vita dei prodotti, a suddividere i profili di remunerazione, ad assicurare attenzione e rilancio a contenuti originariamente sottovalutati dal pubblico di massa, a valorizzare contenuti realizzati ma non sfruttati dalla distribuzione tradizionale, provenienti da produttori indipendenti o dalla creatività degli stessi utenti.

La crescente diffusione delle connessioni veloci e degli strumenti per produrre foto, video e audio in formato digitale ha moltiplicato il numero dei Web Service basati sulla distribuzione di contenuti multimediali, che hanno a disposizione un pubblico sempre più vasto, che si prende spesso carico anche della produzione, classificazione e ridistribuzione degli stessi. Si fa ricorso in questo caso all‟espressione economie di rete perché il coinvolgimento di un numero sempre maggiore di utenti nel ciclo di produzione e pubblicazione non solo non incide sull‟andamento dei costi (economie di scala) ma comporta anche un allargamento

Page 18: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

18 dell‟offerta, della quale ogni utente si va vettore e promotore, ulteriore canale distributivo. Le nuove dot-com, che sono state in grado di intercettare le esigenze degli utenti della rete e hanno lanciato Web Service innovativi, hanno avuto un successo straordinario e hanno dato vita a un nuovo ciclo economico positivo legato alle tecnologie di rete.

Il motore di ricerca Google, per esempio, è per tutti gli utenti web il punto di riferimento per rintracciare l‟informazione, è perfettamente compatibile con i dispositivi mobili e ha lanciato servizi in grado di rivoluzionare l‟esperienza degli utenti come Google Earth, un sistema di mappatura della superficie terrestre per mezzo di fotografie satellitari che gli utenti possono attraversare in volo, analizzare attraverso le informazioni aggiuntive e i repertori linkati ai singoli luoghi, contribuire a arricchire aggiungendo il proprio contributo (una foto, una scheda su una risorsa naturale, etc.). Google ha anche acquisito YouTube, il portale di video sharing che cumula oltre 100 milioni di download al giorno (novembre 2007) e ha reso evidente sia le potenzialità del video on demand (l‟accesso individuale ai repertori audiovisivi), sia la strategicità del coinvolgimento degli utenti che concorrono ad arricchire con i loro contributi video il patrimonio condiviso e reagiscono commentando e votando quanto reso disponibile da altri. La dimensione di social networking è amplificata in piattaforme che puntano esplicitamente a configurarsi come luogo per l‟espressione della propria personalità e per la gestione di relazioni sociali mediate dalle tecnologie. In ambienti come Myspace e Facebook milioni di giovani utenti fanno upload (cioè pubblicano on line) delle proprie gallerie fotografiche e dei propri video, rendendoli disponibili per i propri amici oppure, a diversi livelli, per un pubblico più ampio se puntano a far conoscere e valorizzare la propria creatività; allo stesso tempo, si tengono in costante contatto con gli amici presenti in rete mediante sistemi di instant messaging (messaggi in formato testuale rivolti a singoli o gruppi).

In parallelo all‟espansione dei web services, gli utenti stanno sperimentando la possibilità di accedere alle risorse Internet in condizione di mobilità (mobile networking) facendo ricorso a tecnologie di trasmissione wireless. Il volano per questo processo è dato dalla crescente diffusione di dispositivi mobili che non sono più semplici telefonini ma terminali Internet in grado di accedere a tutte le risorse e i servizi: web, e-mail, streaming audiovideo, chat, instant messaging, videocomunicazione, etc. Le funzionalità multimediali dei device mobili sono perfettamente integrate in questo contesto: ad esempio, la foto scattata con la fotocamera del telefonino può essere facilmente inviata per e-mail oppure indirizzata direttamente alla stampante, a un pc o a un altro telefonino via Bluetooth (sistema a radiofrequenza attivo nel raggio di alcuni metri). La disponibilità di connettività wireless per il traffico dati (Internet) non poggia solo sulle opportunità offerte dalle società telefoniche attraverso le

Page 19: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

19 tecnologie di trasmissione a pacchetto (GPRS e HSDPA), ma si espande alla famiglia 802.11 WiFi e WiMax rese disponibili da una pluralità di operatori pubblici e/o privati. Lo scenario sta evolvendo verso una nuova modalità di contatto con le tecnologie di rete racchiusa nell‟espressione always on: l‟accesso a Internet è indipendente dalle dimensioni spaziali (si accede indifferentemente da posizione fissa, nomadica o in mobilità) o temporali (di fatto una sola modalità: sempre connesso alla rete); dal tipo di terminale (pc, palmare, telefono mobile) o dalla tipologia di connessione (aDSL, fibra ottica, WiFI, WiMax, HSDPA, etc.).

5. Verso l’Internet degli oggetti L‟evoluzione verso il Web 3.0, già oggetto di

discussione tra gli esperti di tecnologie, lascia aperti diversi orizzonti. Per alcuni, il punto di svolta è legato semplicemente all‟ampliamento della capacità di trasmissione fino a 10, 20 o 40 Mb, in modo da consentire una totale integrazione delle reti sotto protocollo IP con il mondo televisivo e la diffusione di sistemi video a alta definizione. Per altri, il tratto distintivo del processo evolutivo segnerà il passaggio a quello che viene chiamato Internet of Things: l‟integrazione progressiva nella rete di tutti gli oggetti dispersi nell‟ambiente fisico (elettrodomestici, porte, codici a barre dei prodotti, etc.) che vengono dotati della capacità di scambiare informazione e pertanto diventano smart. Gli utilizzi potenziali sono infiniti: spaziano dalla domotica, che elabora strategie per rendere “intelligenti” le funzioni degli ambienti in cui abitiamo (luci e energia, porte, elettrodomestici); alla logistica, che renderà più semplice (e privo di errori) rintracciare le nostre valigie negli aeroporti, i libri di cui abbiamo bisogno nelle biblioteche, le medicine a noi destinate negli ospedali; al sostegno alle disabilità, attraverso percorsi “virtuali” destinati agli ipovedenti negli ambienti urbani, in cui la funzione di guida è affidata a una rete di sensori che dialoga con i dispositivi trasportabili; ed infine, alla semplificazione di atti quotidiani come pagare il biglietto dell‟autobus o del parcheggio mediante il telefonino, attraversare le porte della metropolitana e delle autostrade con un “bip and go”, avere un sms che funge da biglietto e prenotazione del posto per il viaggio in Eurostar.

L‟integrazione del mobile networking e del pervasive computing in un ambiente in cui la banda larga è sempre più diffusa e accessibile apre questioni che, dietro l‟apparente carattere tecnico, nascondono un dibattito sull‟opportunità di mantenere sostanzialmente intatta la configurazione aperta e pubblica della rete. La scommessa tecnologica non è di poco conto: si tratta di includere progressivamente in Internet miliardi di device mobili e un numero assolutamente inimmaginabile di “oggetti” quotidiani (elettrodomestici, cartelloni pubblicitari, cartelli stradali, codici a barre, etc.), indipendentemente dal tipo di connessione per il trasporto dati (fisica e/o wireless) e dai sistemi operativi di ogni singolo

Page 20: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

20 apparato. Il supporto di rete servirà per fruire contenuti e servizi multimediali interattivi (non solo dal Pc, ma dal televisore, dal telefono, etc.) e inoltre per le comunicazioni (a) tra persone e persone (indirizzari e archivio dei messaggi integrati, sistemi in sincrono per testo, voce, immagine, etc.); (b) tra persone e “oggetti” (istruzioni rivolte a apparati tecnologici, richieste di informazioni, ticketing, etc.); (c) tra “oggetti” e persone (schermi e cartelloni pubblicitari che riconoscono gli interlocutori, etc.) (d) e, infine, tra “oggetti” e “oggetti” (codici a barre che dialogano con il carrello della spesa e la cassa, etc.). Come risulta chiaro, si tratta di modalità di utilizzo della risorse di rete che sono lontane anni luce dalla interpretazione dello slogan “mobile Internet” per qualche tempo alimentata dal dibattito giornalistico e dalla pubblicità delle società telefoniche: non si tratta, infatti, di sfogliare pagine web quando si è lontani dall‟ufficio ma di fare, con le tecnologie di rete che trasportiamo in tasca e/o che ci circondano, cose radicalmente diverse. La logica evolutiva implicita nell‟Internet of Thing punta a esportare nel nostro ambiente quotidiano, ai contatti con gli oggetti e con le persone, i principi della modularità e della intelligenza distribuita che appartengono storicamente allo sviluppo della rete.

Il principale problema tecnico da risolvere è relativo al sistema di protocolli che gestisce gli indirizzi Internet: per rendere operativa la nuova fase delle tecnologie di rete si dovrà, infatti, attribuire un indirizzo fisico (stabile) a ciascun dispositivo. Il sistema in funzione, in sigla IPv4, secondo la stima della IETF (Internet Engineering Task Force) gestisce circa 4 miliardi e 300 milioni di indirizzi ed è prossimo all‟esaurimento. Si sta provvedendo, pertanto, a mettere in esercizio il nuovo sistema IPv6 che dovrebbe risolvere alla radice il problema, assicurando un numero di indirizzi vicino ai limiti dell‟immaginabile, almeno per i comuni mortali: il sistema sfrutta 128 bit, rispetto ai precedenti 32 e consente fino a circa 3,4x10

38 indirizzi fisici Internet.

Secondo altre prospettive di ricerca (in particolare per Berners-Lee e il gruppo di lavoro del W3C) la sfida dei prossimi anni riguarda il tentativo di rendere le informazioni tracciate nel Web non solo comprensibili agli umani - come avviene, seppur con molte limitazioni, attraverso i motori di ricerca - ma anche alle macchine (machine-understandable). Nell‟etichetta di Semantic Web è racchiusa l‟idea di raggiungere la piena interoperabilità attraverso un sistema di metadati che poggia su RDF (Resource Description Framework), un data model per la descrizione univoca delle risorse identificate attraverso il sistema URI (Universal Resource Identifier). In realtà le tendenze che abbiamo delineato - disponibilità illimitata e ubiqua di connettività, estrema pervasività delle tecnologie informatiche, procedure di information retrieval interoperabili - non si escludono vicendevolmente ma evolvono in parallelo e descrivono i tratti caratterizzanti della prossima generazione delle tecnologie di rete.

Page 21: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

21

Internet degli oggetti esprime la tendenza verso un ambiente tecnologico in cui la capacità di calcolo e di gestione della potenzialità connettiva si autonomizza rispetto alla macchina personal computer e si innesta negli spazi fisici, diventando pervasiva e ubiqua. Le basi di questo approccio sono state tracciate da Mark Weiser, nei Laboratori dello Xerox Park, seguendo l‟idea che si dovesse rimettere il computer e il suo schermo interattivo «al posto giusto» nella vita degli esseri umani: in una collocazione dove non si producessero interferenze o sottrazioni di attenzione rispetto agli obiettivi dell‟azione, a causa di continue e sempre più complesse richieste di dialogo avanzate dalla macchina. La logica dell‟ubiquitous computing punta ad una forma espansa di «embodied virtuality», in cui l‟intero mondo fisico acquisisce le capacità di calcolo e di dialogo normalmente assegnate all‟artefatto cognitivo personal computer. Agli oggetti inanimati è assegnata una vita artificiale in funzione della loro capacità di venire incontro ai nostri bisogni: noi rimaniamo fermi, in senso letterale e figurato, mentre i computer nascosti e dispersi nel mondo (cioè la potenzialità di trattare informazione) si agitano freneticamente per venirci in aiuto, facendo affidamento sulla memoria, la precisione, l‟accesso alle risorse di network, per anticipare le nostre esigenze e suggerire le alternative più opportune per venire incontro ai nostri desideri. Ma i processi di recupero e gestione delle informazioni rilevanti in ogni singolo contesto debbono presentarsi in modo semplice e naturale ed avere effetti “calmanti” sugli utenti umani. Se questa scommessa avrà buon esito si riuscirà a dare concretezza al progetto che Weiser enunciava nel 1991, in un mondo in cui le tecnologie di rete erano ancora in stato embrionale: «Durante una passeggiata nel bosco si rende disponibile di fronte alla punta delle nostre dita molta più informazione di quanta ne presenti un qualsiasi sistema computerizzato. Ciononostante le persone considerano rilassante la passeggiata tra gli alberi e frustrante interagire con un computer. Se avremo macchine che si adattano all‟ambiente umano, invece di costringere gli umani a entrare nel loro, questo renderà usare un computer tanto rilassante quanto fare una passeggiata nel bosco». (Weiser 1991:104).

Riferimenti bibliografici

Barry M. Leiner, Vinton G. Cerf, David D. Clark, Robert E. Kahn, Leonard Kleinrock, Daniel C. Lynch, Jon Postel, Larry G. Roberts, Stephen Wolff , «A Brief History of the Internet», The Internet Society, disponibile all‟indirizzo: http://www.isoc.org/internet/history/brief.shtml

Weiser M., «The Computer for The Twenty-First-Century», Scientific American, September 1991, pp. 94-104

T. Berners-Lee, «Weaving the Web. The Original Design and Ultimate Destiny of the World Wide Web by Its Inventor», Harper, San Francisco

Page 22: Alberto Marinelli Internet e World Wide Web...1 Alberto Marinelli Internet e World Wide Web In senso tecnico, Internet è un network di computer network: è infatti costituita da una

22

1999; tr. it. «L‟architettura del nuovo Web», Feltrinelli, Milano 2001

K. Hafner, M. Lyon, «Where the Wizards Stay up Late. The Origins of the Internet», Simon & Schuster, New York 1996; tr. it. «La storia del futuro. Le origini di Internet», Feltrinelli, Milano 1998

A.L. Barabási, «Linked. The New Science of Networks», Perseus, Cambridge Mass.2002; tr. it. «Link. La nuova scienza delle reti», Einaudi, Torino 2004

A. R. Galloway, «Protocol. How Control Exists after Decentralization», The MIT Press, Cambridge Mass., 2004

B. Wellman, C. Haythornthwaite (eds.), «The Internet and Everyday Life», Blackwell Publishers, Oxford 2002,

W3C Technical Report and Pubblications, disponibili all‟indirizzo http://www.w3.org/TR/

Internet Society – Histories of the Internet, disponibili all‟indirizzo http://www.isoc.org/internet/history/

Wikipedia – voce Internet e risorse linkate , disponibili all‟indirizzo http://it.wikipedia.org/wiki/Internet http://en.wikipedia.org/wiki/Internet