Home
L’Internet del 2007

03 Gennaio 2007

L’Internet del 2007

di

Finita la meraviglia per i cittadini che scrivono pubblicamente in Rete o distribuiscono contenuti video, che direzione sta prendendo il Web? Quale sarà la prossima tappa che porterà i media tradizionali e gli individui a utilizzare un'Internet più strutturata? Alcune ipotesi, molti link e un dubbio finale

Il 2006, dopo alcuni anni in cui si è normalizzata la meraviglia iniziale per i cittadini che scrivono pubblicamente in Rete, è stato probabilmente l’anno dello stupore per i cittadini che producono e distribuiscono contenuti video. Nell’ottica della cronaca abbiamo registrato prima l’attenzione su YouTube (grazie alla milionaria acquisizione da parte di Google), poi il “ritorno” sui media tradizionali di alcuni video che si erano diffusi in Rete (dal rap di Prodi a tutti gli altri), fino al dominio delle prime pagine con i video sul bullismo e sugli stupri adolescenziali ripresi con i cellulari. Da un punto di vista di sistema, invece, si tratta di un passaggio più o meno prevedibile dalle potenzialità di ambiente mediale di Internet a un effettivo utilizzo del web come ambiente mediale. Lo schema seguito è stato lo stesso che avevamo osservato con l’affermazione di Flickr e la diffusione dei contenuti fotografici in Rete: una repository, la cui distribuzione è fatta poi attraverso le conversazioni degli individui.

In questa prospettiva, i blog hanno rappresentato una svolta molto importante dando all’accesso alla conoscenza (ovvero ai contenuti) una particolare configurazione. Infatti, senza la ragnatela di portatori di interessi che lavora come una immensa redazione e che guida chi ha motivazioni affini, non sarebbero realmente utilizzabili le enormi banche dati di video e foto. Se proviamo ad immaginare YouTube come oggetto non collegato con il resto, ci rendiamo subito conto che sarebbe solo relativamente usabile. Ciò che lo rende davvero tale, infatti, è il lavoro di milioni di persone che lo usa, che segnala video, che indica percorsi. Se io mi occupo di pesca sportiva, ne scrivo nel mio blog e il mio blog verrà letto da persone che si interessano di pesca sportiva. Se io realizzo un video sulla pesca sportiva e lo metto su YouTube, le probabilità che le persone interessate lo trovino sono relativamente basse. Ma le repository sono progettate per essere dei magazzini che ti permettono di ripubblicare. Così io ripubblico il video sul mio blog e creo un percorso per gli interessati.

In un mondo in cui l’accesso alla conoscenza è costruito sui link (più link ha un contenuto, più è accessibile), le repository non possono esistere senza i blog. Non solo i blog, è vero, ma i blog rappresentano la massima parte del contenuto aggiornato quotidianamente in rete e il lavoro redazionale di milioni di utenti è la forma di distribuzione del web.

Nuovi paradigmi strutturali

Un filosofo spagnolo, Tomás Ibáñez, giustamente osserva che chiunque lavori con la produzione e con l’uso della conoscenza o dell’informazione prima o poi deve confrontarsi con i problemi che ne definiscono le regole. Internet sta mettendo tutti noi di fronte a un cambio di paradigmi strutturali, che derivano direttamente dalle scelte che gli architetti dell’informazione progettano per far fronte alla complessità di un modello in cui chiunque può immettere contenuti da quasiasi punto. Un gruppo di questi architetti, dopo aver esaminato con attenzione come si è mosso il web nel 2006, ha analizzato le tendenze e ha elaborato una serie di predizioni per il 2007 che vanno dalle ipotesi sui rapporti di forza tra Google e Microsoft fino ad alcune considerazioni interessanti, che seleziono:

  • continuerà il boom dei blog in vista delle elezioni (americane) del 2008;
  • i social network diventeranno un posto in cui i membri potranno far denaro;
  • i giornali si apriranno;
  • cominceranno ad arrivare i grandi investimenti in pubblicità;
  • i virus e lo spam diventeranno un problema sempre maggiore;
  • l’identità digitale inizierà un grande cambiamento che renderà il web più affidabile e friendly per gli utenti e gli investitori;
  • tutto, nel 2007, sarà preparazione per la grande infolution del 2008.

/

Le considerazioni degli architetti giapponesi, a parte un po’ di retorica, sono interessanti perchè ben informate e perchè, in fondo, basate sull’unico metodo corretto di previsione: l’analisi delle tendenze. Se ci ragioniamo, i punti che ho riportato sono tutti collegati tra loro e ci raccontano una tappa inevitabile nel passaggio di Internet dall’adolescenza col brutto carattere (come dice Beppe Caravita) alla maturità. Da quello che ad oggi sappiamo, la complessità delle informazioni disponibili non è risolvibile se non attraverso la collaborazione (assistita da piattaforme) degli utenti, senza la quale Internet non sarebbe usabile. È quasi banale, dunque, credere che tutta l’innovazione porterà prevedibilmente a set di soluzioni che continueranno il percorso verso la partecipazione, rendendola sempre più semplice e attraente e cercando di aumentare il più possibile il numero di individui, prima connessi, poi coinvolti. Gli individui, in fondo sono mercato e la tendenza anche laddove non è etica (digital divide) ma economica (ampliamento di mercato) ha una sua linea molto prevedibile.

Uno degli effetti collaterali di questa crescita è inevitabilmente il problema dello spam, che già oggi è a livelli vicini ad essere insostenibili. Si tratta di una questione ancora molto sottovalutata, se non dagli addetti ai lavori, e diventerà sempre più assillante. Prevedibilmente una soluzione (o un ridimensionamento) potrebbe venire proprio dalla spinta verso soluzioni ad altri problemi.

L’anno delle metriche

Tutto il resto è strettamente collegato, poiché mercato, investitori, “web affidabile” (come lo chiamano i giapponesi), pubblicità, apertura dei giornali, sono tutte facce della stessa medaglia. Sono tutte tendenze che riconosciamo, più o meno timidamente, a partire dall’apertura dei giornali. Per alcuni il 2007 sarà l’anno della scommessa su chi vincerà tra i weblog e il New York Times. Tuttavia, da un punto di vista di sistema, perché si crei valore economico e perchè l’industria dell’informazione investa con maggior forza sulla Rete è necessario che si crei un mercato. E poiché il modello di business più banale non è quello di vendere l’informazione, ma quello di vendere la pubblicità, il vero mercato si comincerà a definire appena Internet avrà messo a sistema se stessa, trovando delle metriche affidabili.

Le metriche serviranno a fare in modo che chi ragiona sulla pubblicità abbia sufficienti elementi per valutare l’impatto e il risultato degli investimenti in Rete. Le page views e le metriche attuali (derivate dalla logica televisiva) non rendono sufficiente giustizia alle potenzialità del web e non convincono fino in fondo gli investitori. Le metriche che servono, probabilmente dovranno tenere conto di parametri del tutto nuovi: affidabilità (sui singoli temi, non personale), capacità di influenza, relazioni. Ma anche, in una topologia della conoscenza in cui una pagina è accessibile in maniera proporzionale al numero di link che puntano a essa, di una certa quantità di variabili di cui ad oggi non veniamo ancora a capo. In futuro queste metriche dovranno monitorare e rendere misurabile la Rete non in maniera statica, ma dinamica. Si sta facendo molta ricerca e si coniano ogni giorno nuovi concetti: l’ultimo è lo shifting hub, che rende bene l’idea di come siano necessarie metriche dinamiche.

Questa delle metriche è la grande scommessa persa da Technorati, che non ha capito bene, a mio modo di vedere, il suo ruolo potenziale nello sviluppo dell’intera Internet. Hanno scelto di affidarsi a un’equazione troppo banale per essere credibile (più link = più influenza) nel momento in cui avevano un vantaggio competitivo su tutti gli altri. Non hanno investito in ricerca, non hanno ragionato sul tema, non hanno compreso la necessità di strutturare e tenere puliti i loro dati. Probabimente hanno intuito per primi che il prossimo nodo strutturale nell’evoluzione di Internet sono le metriche, ma hanno sbagliato praticamente tutto. E oggi il loro capitale (l’enorme base di dati e il preferential attachment) viene lentamente eroso da servizi concorrenti (come Google Blog Search).

Verso un rafforzamento dell’identità

La questione dell’identità è un altro aspetto correlato alle metriche e al mercato, oltre che all’usabilità del web e alle decisioni politiche (e filosofiche) che riguardano la gestione di Internet. Anche lasciando da parte la boutade cinese del Ministro Fioroni, che aprirebbe un tema molto più ampio, il rafforzamento delle identità è una condizione di sistema realmente strategica. In tutti gli ambienti “locali” che hanno dimostrato di funzionare (da eBay ai social network) l’identità stabile è il cardine su cui si costruiscono tutte le interazioni e i processi di fiducia che innescano le decisioni collaborative, ovvero ciò che fa funzionare il tutto. Nei weblog e più in generale nel web l’identità è uno dei tre punti (content, context, users) che permettono di valutare ciò che stiamo leggendo. E così via. Senza identità non si creano relazioni, non si processa la reputazione. E poi, banalmente, tutti i modelli che vivono di cosidette “identità ad hoc” non strutturate (ad esempio i forum) hanno dimostrato di non reggere all’aumento di scala degli utenti e alle tensioni sociali interne.

È ragionevole dunque immaginare che si proceda verso dei processi di rafforzamento delle identità, anche se naturalmente questa tendenza non vuol dire innescare meccanismi rigidi. Sarà possibile fare e continuare a fare molte cose in maniera anonima, ma laddove si innescano processi di creazione di valore (sociale, economico, relazionale) l’identità in qualche modo certificata sarà una scelta che l’individuo dovrà sottoscrivere per partecipare. Non mi sento di escludere che in futuro si arrivi anche a una sorta di identificativo digitale, anche se per arrivarci questa scelta dovrà necessariamente essere configurata in maniera tale da produrre soprattutto vantaggi per gli utenti. Non mi risulta infatti che nella storia della Rete sia mai passata alcuna innovazione che non avesse una sufficiente massa critica di consenso.

Nuovi assetti per continuare a crescere

In definitiva, per come la vedo io, il 2007 sarà l’anno in cui in maniera evidente o all’ombra dei sotterranei della ricerca Internet dovrà affrontare il problema delle metriche. È il prossimo passo per continuare a crescere e, come tutte le cose che accadono dentro il web, alla fine porterà a un assetto diverso su molti fronti. Ma c’è un grande ma. La topologia di Internet oggi è costruita sul modello Google e sui link ed è cambiata molto da quando il modello era l’indice dei contenuti di Yahoo!. Ora molti stimoli portano a considerare che dal punto di vista dei motori di ricerca l’innesto della capacità cognitiva degli utenti nella piattforma abilitante sia un passggio obbligato. E se l’idea di Wales (o un’idea simile) cominciasse a funzionare, probabilmente l’intera configurazione del web potrebbe riassestarsi su basi che non conosciamo. In tal caso varrebbe una volta di più l’ormai classico monito di Sterling: gli uomini del XXI secolo sono costretti a imparare tutti i giorni.

L'autore

  • Giuseppe Granieri
    Autore, docente ed esperto di comunicazione e cultura digitale.
    Il suo bookcafe.net, fondato nel 1996, è stato uno dei primi siti letterari e blog italiani. Ha collaborato con testate come Il Sole 24 Ore, l’Espresso, La Stampa e firmato diversi saggi per l'editore Laterza.

    Foto: Enrico Sola.

Iscriviti alla newsletter

Novità, promozioni e approfondimenti per imparare sempre qualcosa di nuovo

Gli argomenti che mi interessano:
Iscrivendomi dichiaro di aver preso visione dell’Informativa fornita ai sensi dell'art. 13 e 14 del Regolamento Europeo EU 679/2016.