Articoli

Il miraggio del Web 3.0

di Bernardo Parrella

thumbnail

14

Dic

2006

Non abbiamo ancora fatto l'abitudine al Web 2.0, qualunque cosa si intenda con questa etichetta, e a Silicon Valley già si sperimenta la fase successiva, appena rilanciata dal Summit annuale di O'Reilly

Il paradigma del Web 2.0 si è oramai pienamente affermato, grazie a dinamismo e interazione, social network e condivisione. Trascinandosi appresso certi rischi poco appariscenti e il tipico bombardamento di opzioni, notizie, eventi. Tant’è che la stessa definizione va suscitando qualche sbadiglio, non solo tra gli addetti ai lavori, e qualcuno non ha problemi a sentenziare che il «Web 2.0 è finito».

Queste posizioni sono emerse nella blogosfera Usa soprattutto all’indomani della recente edizione del Web 2.0 Summit, organizzato da O’Reilly a San Francisco – edizione certamente meno brillante delle precedenti per via dell’aspetto spiccatamente business, pur ricevendo buona attenzione dai grandi media e dal mondo high-tech. Ed è quest’ultimo, in particolare, che sta preparando il terreno per la fase successiva, puntando sul rinnovato interesse dei venture capitalist di Silicon Valley e accelerando l’attuale maturazione del web (che comunque riguarda gli utenti, piuttosto che l’innovazione tecnologica in quanto tale). Un quadro complessivo che fa sfociando nel “Web 3.0”, noto anche come Web semantico.

Contrariamente al mash-up continuo dell'attuale scenario, il «Sacro Graal degli sviluppatori del Web semantico» è realizzare sistemi «capaci di estrarre maggiori significato dall'attuale ragnatela», sviluppare software in grado di rispondere a richieste complesse, come organizzare una vacanza a puntino entro un certo budget. In altri termini, si tratta di «trovare nuovi modi per spremere l'intelligenza umana... per far assomigliare il web meno a un catalogo e più a guida ragionata». Queste alcune definizioni tratte da un recente articolo apparso sulla prima pagina domenicale del New York Times. Dove tra le righe campeggia la domanda di fondo: ma stanno davvero così le cose? E sarà tutto a vantaggio di noi utenti?

Molti scommettono di sì, a partire dai grandi nomi del cyber-business come Google, teso a sfruttare al meglio l’efficacia degli algoritmi dei “page rank”, tramite anche quei progetti che finanzia direttamente, come il KnowItAll all’Università di Washington. Una delle tecnologie qui allo studio, battezzata Opine, si pone come estensione diretta e ragionata dell’ormai classico user generated content: estrarre e aggregare recensioni o consigli per specifici prodotti pubblicati su vari siti dagli stessi utenti. Strizzando l’occhio all’intelligenza artificiale, il sistema si pone l’obiettivo di interpretare correttamente concetti quali “perfetto”, “gradevole” o “quasi OK” in giudizi e commenti inseriti dai navigatori sul web. Per poi rispondere nella maniera più precisa e immediata a chi cerca, ad esempio, un hotel non a cinque stelle ma comunque dignitoso – operazione che oggi possiamo permetterci portare a termine soltanto se dotati di una buona dose di tempo e perseveranza.

D’altronde è stato proprio un veterano delle ricerche sull’intelligenza artificiale, Daniel Hillis, ad aver fondato lo scorso anno Metaweb Technologies in base all’assunto che «è chiaro come oggi la conoscenza umana sia assai diffusa e bene esposta all’intervento delle macchine». L’azienda sta migliorando applicativi già sviluppati per agenzie militari e di intelligence statunitensi, un po’ come ai tempi del Darpa pre-Internet, e il sito non specifica quali servizi vada approntando, se non che «stiamo costruendo un'infrastruttura migliore per il Web». Analogamente, Radar Networks poggia sui capitali di Paul Allen e di altri visionari, e prevede di rilasciare il primo pacchetto commerciale nel 2007, adeguato alla «prossima frontiera per la ricerca, la pubblicità, la distribuzione di contenuti e il commercio». Oltre al citato Google, a dar man forte a simili start-up c’è anche Big Blue, il cui centro ricerche nella Silicon Valley si concentra su sofisticati sistemi di data-mining; uno di questo, il famoso Web Fountain, ha consentito di determinare in anticipo i brani musicali più venduti studiando l’andamento di vari social network affollati da giovani e studenti di college.

Questi e similari esperimenti sul campo sono ancora giovani ma assai convinti – nonché, appunto, trainati da forti interessi commerciali. Tuttavia è difficile dire se la cordata di IBM e altri non verrà soppiantata, perché no?, dall’ennesimo trovata di un’intelligenza collettiva sempre più organica. Anche perché a ben vedere queste tecnologie per organizzare la conoscenza diffusa, capaci di trascendere le definizioni tradizionali del Web, non possono ancora qualificarsi come Web 3.0, bensì sono più vicine al Web 2.1. Lo suggerisce infine un editoriale online della Technology Review del MIT. Chiedendosi cosa viene dopo il Web 2.0, Wade Roush spiega che i «primitivi prototipi odierni dimostrano come un'Internet intelligente sia ancora assai lontana». Passando a illustrare in dettaglio alcuni progetti “post-Web 2.0”, l’articolo illustra la mancanza di tool per non-programmatori o l'eccessiva artificialità di certe applicazioni centrate, appunto, sull'intelligenza artificiale. Per concludere come non ci sia da sorprendersi se si stanno cercando nuove definizioni per descrivere il lavoro che avviene “oltre i confini dell'odierno Web 2.0”. Ma è prematuro sostenere che si tratta di tecnologie di terza generazione: «A giudicare dall'odierno "state of the art", dovremo aspettare ancora qualche anno».

[La foto in apertura: è tratta dal servizio fotografico di James Duncan Davidson/O'Reilly Media sul Summit O'Reilly di San Francisco]