1 Commento

Mutazioni digitali

Quello che a Panda piace (e forse piace pure a noi)

di

thumbnail

30

ago

2011

L’aggiornamento introdotto da Google sul suo algoritmo di selezione dei contenuti ha buone intenzioni. Ma qualche domanda sui criteri dovremo pur porcela

A Panda piace. Sfrutto come metafora il titolo di una striscia nata in rete – e che amo particolarmente – per sottolineare il mood che imperversa anche nella internet italiana in questi ultimi giorni. Panda è il nome dell’aggiornamento dell’algoritmo di Google che ci permette di selezionare i contenuti ed arrivare in modo veloce a quelli più significativi, cioè, presumibilmente, quelli che compaiono subito quando facciamo una ricerca. Il cambiamento dell’algoritmo ha prodotto e produrrà modificazioni per alcuni (molti?) siti, pagine eccetera – anche se l’incidenza su Google Search è dell’ordine del 9%, per ora.

Determinismo tecnologico?

Ad esempio i siti content farm, giganteschi archivi di articoli, sono penalizzati in modo pesante. Scopriamo così che per l’Italia un aggregatore come Liquida.it è meno di qualità di Libero.it (fonte Searchmetrics) pur avendo molti più lettori. È evidente che l’incidenza di nuovi criteri selettivi rispetto alla qualità di un sito e, quindi, al suo posizionamento, ha ricadute economiche significative. In molti casi la diminuzione di visite ha portato a un dimezzamento dei guadagni. Segnalo il caso del sito Master New Media di Robin Good che oltre a raccontare in che modo «l’impatto sul fronte degli introiti è stato drammatico» cerca di spiegare le logiche dell’algoritmo. Molte contromosse per riposizionarsi ai vertici della classifica di ricerca hanno caratterizzato negli ultimi mesi la parte del web in lingua inglese e, immagino, lo stesso sarà per l’Italia.

Il rischio è che, seguendo una pura logica dettata dal determinismo tecnologico, si cerchi di capire come funziona il nuovo algoritmo per correre ai ripari e modificare siti, aggregatori e blog per riposizionarsi. In pratica l’idea è di adattarsi all’algoritmo per sfruttarlo al meglio, apportando quegli accorgimenti tecnici che possano evitare i danni. La logica, invece, dovrebbe essere rovesciata. Come suggerisce Google: «La ricerca è un’arte e una scienza complessa in costante evoluzione, quindi vi invitiamo a preoccuparvi di offrire agli utenti la migliore esperienza possibile evitando di pensare a specifici cambiamenti degli algoritmi».

Proprietà emergenti

Come dire: la qualità non è una derivazione tecnica, ma una proprietà emergente dal tipo di contenuti e relazioni che riusciamo a costruire in Rete. E la complessità che sta dietro alle dinamiche di ricerca non può essere appiattita su strategie che riconducono i contenuti ai desiderata dell’algoritmo. Tanto più che non si tratta di seguire solo una modifica algoritmica: «questo cambiamento è soltanto uno dei circa 500 miglioramenti che abbiamo intenzione di implementare per il servizio di ricerca quest’anno». È però vero che il modificarsi dei risultati di ricerca all’insegna di un nuovo criterio di qualità deciso da Google (l’algoritmo più i 500 miglioramenti produrranno un ecosistema a detta di Google qualitativamente differente) porterà ad una mutamento delle logiche di produzione dei contenuti.

Spulciando le domande che Google consiglia di farsi quando si vuole produrre contenuti di qualità abbiamo alcune indicazioni di quale filosofia si trovi dietro alla ricerca di big G. Ne commento alcune ma vi consiglio di leggerle tutte:

L’articolo è stato scritto da un esperto o un appassionato che conosce bene l’argomento o è più superficiale?Il sito è considerato un’autorità riconosciuta in merito all’argomento che tratta?

Il criterio della reputazione di chi scrive è da sempre un motore della selezione rispetto ai contenuti che vogliamo leggere. Potenziarlo non mi sembra necessariamente un male. Ma nel concetto di “superficiale” di Google sembrano andare, ad esempio, contenuti come i comunicati stampa o l’article marketing che nell’ecosistema della comunicazione hanno una dignità informativa (certo, quando sono fatti bene, ma questo vale per ogni contenuto).  Ma varrà sempre di più la logica sintetizzata da Rand Fishkin al Be-wizard «Il contenuto continua a essere il re ma il mondo social è e sarà sempre più importante. Crea un sito semplicissimo, usabile, navigabile», a cui può seguire la chiosa di  Marcus Tandler: «Article marketing? Dimenticatevelo».

Gli argomenti sono basati sui reali interessi dei lettori del sito oppure il sito genera i contenuti in base ai presunti argomenti che potrebbero ottenere un buon posizionamento nei motori di ricerca?

Questa è una buona domanda. In che percentuale la costruzione di un contenuto tiene strategicamente d’occhio il possibile posizionamento? Siamo cresciuti in un’epoca di produzione di contenuti online che ci ha insegnato a ottimizzare una pagina web secondo i fattori on page, a sfruttare la reciprocità dei link eccetera. Sembra che invece l’indicazione sia oggi di ripulirci dalle strategie tecniche e ci suggerisce di scrivere per i nostri lettori non per i motori.

L’articolo tratta entrambi i punti di vista in merito a una notizia?

Quindi l’informazione schierata non sarebbe necessariamente di qualità? Molti degli articoli de Il Giornale o de l’Unità – banalizzo – sono necessariamente privi di qualità? (Non mi rispondete, vi prego, lo uso solo come iperbole). E come può essere automatizzata la ricerca di par condicio?

L’articolo è stato scritto bene o sembra essere stato redatto senza alcuna cura o in modo sbrigativo? Relativamente a una query sulla salute, vi fidereste delle informazioni fornite dal sito?

Non sempre siamo competenti su ciò che cerchiamo o sui modi di ricercare ciò che vogliamo sapere e molti argomenti conoscitivi sensibili (l’esempio sulla salute mi sembra centrato) devono arrivarci secondo un criterio di selezione della fonte che sia il migliore possibile. Fin qui il buon senso. Per andare un pelo più in là di una dimensione programmatica che cerca il consenso attraverso esempi su cui tutti concordiamo occorre pensare a quale modello di fiducia si fa riferimento. Che cosa produce “fiducia” nell’incontrare un contenuto online? Il fatto che sia scritto bene, senza errori di ortografia, con un lessico specializzato? Che sia presentato in un sito ben curato, ben organizzato? Oppure che siamo arrivati a quel contenuto attraverso criteri selettivi che contemplano persone di cui ci fidiamo, che abbiamo imparato a riconoscere come esperti in rete? E come tenere conto nella misurazione algoritmica di tutti questi fattori?

Si tratta del tipo di pagina che aggiungereste ai segnalibri, condividereste con un amico o consigliereste?

Ci prenderemmo la responsabilità di fare circolare un simile contenuto? I like che mettiamo, le azioni di sharing, le citazioni sono ancora centrali per una logica connettiva di supporto alla diffusione di conoscenza. Mi chiedo quindi nel futuro quanto grande sarà la rilevanza di un indice di sharabilità (per usare un neologismo orrendo) del contenuto rispetto all’economia della sua ricercabilità.

Nell’articolo ci sono troppi annunci che distolgono l’attenzione dai contenuti principali o interferiscono con essi?

Hai riempito la tua pagina di pubblicità, annunci, box che confondono con contenuti fuorvianti? Google sembra pensare a una via all’estetica della qualità che potrebbe mostrarci trasformazioni sorprendenti sulle realtà visuale/concettuale dell’informazione sul web.

Vi aspettereste di trovare l’articolo in una rivista, un’enciclopedia o un libro cartacei?

Mi chiedo: il modello di riferimento è quello dell’editoria tradizionale? E quindi, ad esempio, un contenuto che ricostruisca attraverso link ad articoli e pagine, video e file audio un particolare contesto conoscitivo è necessariamente di scarsa qualità? Dopo gli anni di esperienza e crescita della produzione di contenuti online, ricercando forme di visualizzazione e di scrittura che sfruttassero al massimo il mezzo, dobbiamo ancora utilizzare come metro di confronto ancora il paradigma scrittura/lettura basato sulla stampa?

Senso di fiducia

Al di là di tutto, di buoni spunti e perplessità per un meccanismo che sta cercando di definire (imporre?) un nuovo stato naturale della qualità dei contenuti online, quello che Google sta proponendo è una automatizzazione di tipo matematico che riconosca il rapporto che un lettore ha con i contenuti, il senso di fiducia nei confronti di questi e di soddisfacimento conoscitivo. Perché ci sia un’identità tra quello che a Panda piace e quello che a noi piace.




Giovanni Boccia Artieri è professore straordinario presso la Facoltà di Sociologia dell’Università di Urbino "Carlo Bo", dove insegna Sociologia dei new media e Comunicazione pubblicitaria e linguaggi mediali. Dirige il corso di laurea in Scienze della Comunicazione e un dottorato in Sociologia della comunicazione e scienze dello spettacolo. Si occupa delle culture pop della Rete e delle mutazioni digitali prestando particolare attenzione ai social media e ai mondi online.

In Rete: mediamondo.wordpress.com

Letto 9.032 volte | Tag: , , , , , ,

Un commento

  1. [...] Apogeonline Share and [...]

Lascia il tuo commento