La progettazione delle interfacce utente (User Interface) ha inizio con una attenta osservazione del mondo reale. Fino ad oggi progettare interfacce poteva forse significare disegnare graficamente layout, pulsanti, barre di navigazione eccetera: in breve, tradurre in immagini e pagine grafiche interattive uno schema che sia facile e rapido da leggere per essere usato (cliccato, toccato…) da un essere umano. Questo è quello che è successo fino a oggi, in maniera capillare soprattutto dall’avvento degli smartphone, ma ancora prima con le interfacce dei siti web e dei canali tv digitali.
Andy Goodman, Group Director e Design Strategist di Fjord Accenture, durante la conferenza Hardware Software & The Internet of Things 2015 di fine giugno a San Francisco, ha presentato la visione futura delle interfacce, riassunta in questo report con il nome di ZeroUI: l’era delle interfacce invisibili.
Non è la prima volta che parliamo di interfacce utente invisibili in ambito mobile, domotico o più legato a wellness e fitness. Se prima la nostra preoccupazione poteva rivolgersi esclusivamente a come progettare una interfaccia usabile nei microschermi degli smartwatch, quello che metterà alla prova i designer sarà il concetto di invisibilità delle interfacce.
La nostra abitudine a interagire con schermi piatti, luminosi e lisci sarà solo un ricordo. Così come i telefoni a disco e a tastiera, i cellulari con minidisplay… e lo saranno gli auricolari con il filo, i notebook con la tastiera e, chissà, forse anche il telecomando del televisore.
Ne Il kit delle case telecomandate abbiamo raccontato come la user interface (interfaccia utente) stia diventando sempre più invisibile in ambito domotico e di come sistemi e dispositivi ascoltino la nostra voce per ricevere input, oppure traducano i nostri movimenti in comandi (basti solo pensare ai risultati raggiunti con Microsoft Kinect, anticipati solo da Nintendo Wii e dal controller Move di PlayStation).
Per aiutarci nella visione corretta di quello che avverrà tra breve, Amazon ha progettato Echo, un dispositivo grande quanto un tubo di Pringles, in grado di collegarsi alla rete Wi-Fi di casa e interfacciarsi con più device contemporaneamente: smartphone, tablet, PC parleranno tra loro e forniranno a Echo informazioni e servizi da diffondere per tutta la casa.
Grazie ad Alexa, l’assistente di Echo, vengono riconosciuti i comandi vocali da parte di più persone. Così anche le famiglie numerose potranno comunicare con Alexa contemporaneamente (un po’ come già avviene con Siri e GoogleOK). In questo video Amazon presenta ufficialmente il prodotto mostrando una normale famiglia che interagisce con il dispositivo chiedendogli suggerimenti di ogni tipo, da ingredienti e quantità per una ricetta a ricordami che giorno è oggi. Come si può notare, Echo non possiede una interfaccia grafica ospitata in uno schermo. Ha esclusivamente un paio di led e una corona luminosa che cambia colore, niente di più. L’interfaccia per interagire con Echo è la nostra voce, quindi una interfaccia invisibile (a dire il vero c’è anche un telecomando…).
I comandi vocali e quindi l’interfaccia invisibile sono una caratteristica di un grande concorrente di Echo: Jibo, un robot domestico che vuole a tutti gli effetti diventare un componente della famiglia. Nella foto lo si può vedere vestito da tacchino con la sua mamma-umana. Questo video permette di capire ancor meglio la sua utilità.
A differenza di Echo, Jibo ha un dono in più: la comunicazione non verbale! Può infatti trasmettere le sue emozioni tramite uno schermo tondo e interagire con noi mediante il movimento, assumendo posture che non ci aspetteremo mai da quella specie di abat-jour anni ’60 animata dal software di Eve della Disney-Pixar.
Questo significa comunque che i designer, gli UI Designer non avranno più un lavoro? No, credo proprio di no. La progettazione centrata sull’utente (User Centered Design) sarà un approccio di progetto sempre più importante, in ambito domotico e non. Per questo anche gli User Interface Designer (Visual Designer, Graphic Designer) dovranno affrontare nuove sfide centrate sulla progettazione sempre più minimalista delle interfacce, declinando le loro riflessioni in product design sempre più raffinati ed ergonomicamente appropriati.
Se quindi è vero che le interfacce utente saranno sempre più trasparenti e che i comandi saranno principalmente vocali e interpretati dai nostri movimenti (gesti) cosa ci sta promettendo Microsoft con gli Hololens?
A prima vista sembrano altre e nuove interfacce grafiche colorate e ricche di pulsanti che, invece di essere viste su uno schermo, vengono sparpagliate sulle pareti di casa e sopra l’arredamento. Ma se si guarda con più attenzione, anche qui i comandi vengono forniti da gesti, movimenti e comandi vocali. Sarà forse questa la via di mezzo tra le interfacce visibili e quelle invisibili?
Lo scopriremo a breve, forse proprio alla fine dell’estate quando, tornati a casa, troveremo il nostro iRobot che ci saluta e, con il supporto di Echo e Jibo, ci chiederà come sono andate le vacanze, racconterà se le piante stanno bene e spettegolerà di cosa è successo nel vicinato.
Mi raccomando però: non parliamo con il mouse, come il tenente comandante Montgomery Scott in Star Trek quando, tornato sulla Terra dopo un viaggio nel tempo, non riconosce lo strano oggetto con il filo. Quello è e rimarrà sempre un mouse… credo.