Home
Il futuro avrà la forma che gli daremo

11 Ottobre 2010

Il futuro avrà la forma che gli daremo

di

Il rapporto tra contenuto, contenitori e strumenti di controllo sta evolvendo rapidamente, condizionando il modo in cui ci rapportiamo con la tecnologia e diamo forma al pensiero

All’inizio degli anni ’80, negli Stati Uniti, accadde qualcosa destinata a rivoluzionare la modernità. La allora Apple Computer Inc. presentò un prodotto che cambiò il mondo: l’Apple Lisa. Non fu una rivoluzione tanto dal punto di vista dell’hardware, quanto del software. Con Lisa infatti fu introdotta per la prima volta in un mercato di massa l’Interfaccia Grafica (GUI). Una rivoluzione che cambiò il modo di vivere, lavorare, approcciarsi a uno strumento che fino ad allora era costruito di linee di comando indecifrabili; un linguaggio che necessitava di essere appreso attraverso lo studio e che richiedeva quindi tempo e dedizione.

Dal mouse al touch screen

Lisa fu anche il primo personal computer commercializzato su larga scala a introdurre una tecnologia in grado di semplificare l’interazione tra l’uomo e la macchina. Una tecnologia che, nonostante le accelerazioni del progresso e a distanza di trent’anni, continua a essere fondamentale per interagire con il computer: il mouse.
 Due anni dopo fu presentato il Macintosh che permise di portare queste innovazione al mercato di massa. Da allora non ne abbiamo più fatto a meno. 
Nel corso di questi lunghi anni il primo personal computer si è evoluto, assumendo mille forme diverse, ma soprattutto diventando tascabile.
 Mentre tutto diventava più piccolo, crescevano le nostre necessità e crescevano anche le funzioni che questi device ci permettevano di svolgere. Tantissime, crescenti funzioni gestibili dalla stessa interfaccia. Tutto questo, in molti casi, ha portato ad una scarsa ricerca di usabilità, creando spesso un rapporto ostico tra le macchine e gli utenti.

Molti anni dopo, sempre la Apple, introdusse l’iPhone. La più grande rivoluzione arrivata con l’introduzione dell’iPhone fu ancora una volta una totale ridefinizione del concetto di interfaccia, per un mercato molto più grande di quello di Lisa o del Macintosh. Un mercato che oggi conta oltre 54 milioni di utenti in tutto il mondo. Milioni di persone hanno imparato a interagire con uno schermo in un altro modo, un modo più semplice, più intuitivo, più vicino al linguaggio dei gesti che avevamo appreso nel corso della storia dell’interazione tra uomo e macchine, oggetti o tecnologie. L’aspetto più stupefacente di questa rivoluzione è stata la capacità di un oggetto di portare milioni di persone ad associare dei gesti a nuovi significati. Per i semiotici questo è un processo naturale alla base della costruzione del linguaggio. Si crea, in questo modo, quello che in semiotica si definisce simbolo. Le dita che scorrono lungo uno schermo per passare alla fotografia successiva, il pizzicare lo schermo per ingrandire o rimpicciolire un immagine o una pagina web, sono solo alcuni dei molti gesti che ormai portano dietro una connotazione multietnica, globale, universalmente riconosciuta. E il fatto che oltre 54 milioni di persone utilizzino e condividano queste convenzioni sociali non è che una conferma dell’universalità di questo linguaggio e del suo radicamento all’interno di abitudini quotidiane.

Applicazioni e contenuti fluidi

Dal punto di vista degli studi sull’usabilità, sull’architettura delle informazioni o sull’interazione uomo-macchina, e quindi non solo dal punto di vista commerciale, la vera rivoluzione è stato un passaggio a un idea di contenuto on demand creato, fruito e circoscritto all’interno del suo ambito di utilizzo: l’introduzione delle applicazioni e degli app store. Le applicazioni sono una rivoluzione in questi termini. Sono una novità che stravolge per sempre il senso “classico” del dominio di navigazione, permettendo la fruizione di contenuti digitali in diversi contesti d’uso, garantendo soprattutto il multi-device content management e il content delivery localizzato, sia in termini geografici che di piattaforma. Le applicazioni, sono quindi il primo vero esempio di delivery di contenuto transmediale, capace di adattarsi alla piattaforma e all’interfaccia, ma anche al contesto geograafico. I contenuti sono liberi da gabbie e contenitori unici (la vecchia idea di sito), ma iniziano a essere gestiti in modo “fluido”, così come diventano “fluide” le interfacce utente, pensate e ragionate per essere usabili ed accessibili.

Netflix, ad esempio, vive online in mille forme diverse. C’è ovviamente il sito, ma c’è anche l’applicazione per iPhone, quella per iPad, per Android, poi c’è l’applicazione per Boxee, per la Apple TV, per la nuova Google TV, per la Playstation 3, per la Nintendo Wii, per la Xbox 360, per alcuni lettori Blu-Ray o per alcuni modelli di tv multimediali di ultima generazione. Il contenuto proposto non è sempre lo stesso perchè cambia il contenitore, perché cambia l’approccio, il contesto. È un contenuto però fruibile anytime and anywhere, disponibile quindi in qualsiasi momento e ovunque, un contenuto che si adatta alle necessità dell’utente in quello specifico momento. Niente più accesso rigido al contenuto, ma malleato dall’utente in virtù delle sue necessità. In ognuno di questi casi però si è in grado di arrivare alla fruizione con un massimo di 4 clic (o tap). La necessità di costruire contenitori semplici sta abituando gli utenti a una interazione totalmente diversa, che si ripercuote anche sulle interfacce del web più classico.

Multicanalità e transmedialità

La direzione è quindi quella della semplificazione e della multicanalità; dell’accesso diretto e semplificato ai contenuti e della facilità di commercializzazione di contenitori “intelligenti” e contenuti transmediali. Rimane però chiaro che ci sono ancora dei grossi passi da fare nella ricerca sulla semplificazione delle interfacce. Come il mouse nell’ultimo trentennio, oggi ancora ci affidiamo a protesi che ci permettono di comunicare a una macchina le nostre intenzioni. Basta guardare nei nostri soggiorni per capire che la necessità di semplificazione è funzione della quantità di telecomandi e controlli remoti che possediamo. Anche solo un tasto, reale o disegnato da un software, è un oggetto che si interpone tra noi e il nostro contenuto. Un joypad per la console, non è altro che un volante, un freno o un acceleratore per un’auto, così come la tastiera e le corde di una chitarra, sono quello che la carta è per un libro. Avremo sempre bisogno di un’interfaccia, certo, ma nonostante tutto questo, siamo ancora circondati da un eccesso di linguaggi da interpretare e utilizzare ogni giorno per comunicare con il mondo che ci circonda.

L’ambito videoludico si è affermato come innovatore in questo senso. Nintendo Wii ha aperto le porte a un’interpretazione dell’interazione più umana, vicina alla realtà, portando comunque con se il peso di un oggetto che interpretasse il movimento umano. Il Microsoft Kinect ha eliminato anche quell’interprete, trasformando il corpo stesso in controller, o meglio, lasciando al corpo il suo ruolo più naturale e demandando alla macchina il compito di interpretarlo. Gli studi sulle interfacce fanno passi da gigante e già si intravedono sperimentazioni in cui è possibile interagire con ologrammi presenti all’interno dello spazio reale che ci circonda, offrendo una dimensione non solo spaziale, ma immersiva dell’interazione. Una dimensione in cui le superfici diventano intelligenti, gli oggetti stessi diventano contenuto, calcolatore e interfaccia contemporaneamente, in cui saremo tutti dotati di un sesto senso tecnologico che ci connetterà con il mondo. Una dimensione molto più vicina alla descrizione di un racconto di Isaac Asimov che a una soluzione concretamente attuabile. Eppure un mondo alla Minority Report è più vicino di quanto crediamo.

Iscriviti alla newsletter

Novità, promozioni e approfondimenti per imparare sempre qualcosa di nuovo

Gli argomenti che mi interessano:
Iscrivendomi dichiaro di aver preso visione dell’Informativa fornita ai sensi dell'art. 13 e 14 del Regolamento Europeo EU 679/2016.