Home
L’intrattenimento del futuro: vedere la radio o ascoltare il televisore?

27 Aprile 2004

L’intrattenimento del futuro: vedere la radio o ascoltare il televisore?

di

Il titolo è, volutamente, provocatorio. In fondo oggetti come la radio e il televisore sono stati concepiti per una modalità di fruizione ben precisa. Che senso ha ribaltare le carte in tavola?

In futuro vedremo molti oggetti che faranno parte dell’intrattenimento quotidiano anche se oggi non sono utilizzati per questo.

Liberiamoci comunque subito del titolo osservando che a ben guardare è quanto già oggi accade.

La televisione è diventata il centro dell’intrattenimento domestico, per tutte le ore e per tutte le età. È anche una finestra aggiuntiva in casa, una che apre sul mondo.

Negli Stati Uniti le statistiche segnalano che una persona in media guarda il televisore per oltre 4 ore al giorno (in Europa siamo intorno alle 3 ore e venti minuti). La televisione nelle case rimane accesa per oltre 7 ore al giorno. Questi dati ci dicono che per buona parte del suo funzionamento la televisione non ha di fronte degli occhi che la guardano ma delle orecchie che si muovono nell’ambiente e di quando in quando l’ascoltano. Questo è ben noto ai pubblicitari che curano particolarmente la parte sonora del messaggio (anche banalmente aumentando il volume sonoro durante la pubblicità). Nel passato la televisione costituiva un momento di aggregazione importante, prima a livello urbano (quando si andava al bar per guardare Lascia o Raddoppia?) poi a livello familiare. La presenza oggi nelle nostre case di diversi televisori rompe questa capacità di aggregazione e sta facendo compiere alla televisione lo stesso percorso della radio, da punto di intrattenimento condiviso a visione singola.

La radio era stata data per spacciata dopo la nascita della televisione in base al ragionamento che immagine più suono era ovviamente meglio del solo suono. Le cose non sono andate così: oggi ve ne sono oltre 47.000 al mondo. La, relativa, semplicità di produzione di uno spettacolo radiofonico ha permesso il coinvolgimento degli ascoltatori e moltissime radio di interesse locale hanno sfruttato questa possibilità per creare affezionate comunità di ascoltatori che usano il canale radio per interagire.

La radio, una volta punto di aggregazione è diventata una compagna molto personale e a questo è corrisposto un enorme aumento dell’offerta di programmi.

L’avvento di Internet ha moltiplicato il numero di radio arrivando nel 2001 a contarne 30.000 sulla Rete. Questo numero è precipitato alle circa 500 di oggi (che trasmettono solo su Internet) a causa della imposizione dei diritti di autore che hanno fatto crollare la convenienza. Tuttavia Internet non ha solo aperto un nuovo canale di trasmissione per la radio, ha consentito anche di creare un nuovo modo di ascoltare la radio, per l’appunto quello di vedere la radio. Da semplici webcam presenti in studio che consentono agli ascoltatori collegati in internet di vedere anche cosa accade alla trasmissione sincronizzata con il programma di immagini e clip.

La radio già oggi trasmette su di un canale associato un insieme di informazioni (ad esempio quelle relative al traffico, un po’ come il televideo viene trasmesso in associazione con un canale televisivo). In prospettiva questo utilizzo del canale radio per associare informazioni visive potrebbe cambiare il modo di fruire della radio consentendo di canalizzare immagini e sensazioni. Alcuni ricercatori stanno studiando delle lenti a contatto elettroniche che potrebbero sintonizzarsi su quanto stiamo ascoltando alla radio per sovrapporre immagini, colori, forme alla realtà che ci attornia.
Il punto centrale che in qualche modo l’evoluzione della radio ha evidenziato, comunque, è l’interesse delle persone ad interagire con uno spettacolo. È proprio in questa direzione che possiamo immaginarci il futuro, senza per questo ipotizzare che lo spettacolo che oggi guardiamo in pantofole, tra un sonnellino e l’altro, sia destinato a scomparire.

Catturare e interagire con le informazioni

Sicuramente è ancora ingombrante ma già molto meglio del guanto che doveva essere usato fino ad un anno fa per rilevare i movimenti.

La tecnologia ha fatto notevoli passi avanti nella direzione di stabilire un legame tra le informazioni presenti nel mondo esterno e la nostra capacità di acquisirle. L’aspetto interessante è che questa che era fino a non molto tempo fa una capacità di aziende specializzate oggi è alla portata di tutti.
Ad esempio è stato sviluppato un aggeggio poco più grande di un orologio che messo al polso è in grado di capire che movimenti stiamo facendo con le dita e quindi permette ad un computer di desumere che tipo di manipolazione vorremmo fare su di un’immagine che ci viene proiettata.
Con questo sistema è possibile una interazione molto precisa con degli oggetti visto che si riesce a capire lo spostamento delle dita l’una rispetto all’altra permettendo manipolazioni anche complesse.

Il touch screen diventerà una tecnologia del passato via via che si svilupperà il riconoscimento dei gesti tramite analisi delle immagini.

Un approccio completamente diverso è quello che consiste nel catturare le immagini del movimento della mano (o del braccio) in un certo spazio tridimensionale e da queste desumere le intenzioni. Due telecamere poste ai lati dello schermo televisivo possono, ad esempio, consentire ad un computer di capire se si sta puntando una certa parte dello schermo e quindi operare sull’immagine in conseguenza. In questo caso la comprensione del movimento è molto più approssimativa, comunque sufficiente per diversi tipi di interazione. È interessante notare che sistemi per catturare i movimenti sono sempre più utilizzati da Hollywood per le produzioni di film digitali. In questo caso vengono inserite delle etichette elettroniche in vari punti del corpo dell’attore (mani, braccia, gambe, fronte,…): un computer segue il movimento di queste etichette e impara il modo di muoversi di quel particolare attore. A questo punto se occorre girare una scena particolare (magari la caduta da un treno in corsa) viene utilizzata come controfigura un personaggio virtuale, vestito come l’attore e con la sua stessa faccia, in grado di muoversi proprio come lui, quello che in termini tecnici si chiama Avatar (cioè impersonatore). Questa tecnologia è progredita a tal punto che l’associazione attori e stuntmen (cascatori, controfigure) ha iniziato a protestare richiedendo il pagamento dei diritti di uso delle caratteristiche dell’attore umano.
Un ulteriore settore dove i progressi sono stati interessanti è quello delle interfacce vocali. Da tempo esistono dei sistemi di riconoscimento che rendono possibile l’interazione con dei computer. È però recente la realizzazione di un video gioco (LifeLine) che utilizza come unico sistema di interazione la voce.
La voce è ovviamente il sistema di interazione cui siamo maggiormente abituati. I progressi da fare, tuttavia, sono ancora numerosi per riuscire ad arrivare ad un livello di interazioni paragonabile a quello tra persone.

LifeLine, il primo videogame in cui l’interazione è solo vocale.

La codifica delle informazioni

Cercando di immaginare l’intrattenimento del futuro vi è un’altra tecnologia che è importante considerare per il ruolo che ha avuto e che avrà: quella della codifica delle informazioni.
L’informazione presente nel mondo attorno a noi, sia questa un’immagine, un suono, una scena da filmare, quando viene catturata da un apparecchio (ad esempio una telecamera), da qualche anno a questa parte, viene tradotta in bit. La numerosità di questi bit dipende dal tipo di informazione e dalla fedeltà con cui la vorremo poi riprodurre. Intuitivamente maggiore la fedeltà richiesta maggiore il numero di bit. Ed anche: un’immagine in bianco e nero richiederà meno bit di una a colori e questa sicuramente meno bit di un filmato (visto che questo si compone di molte immagini una dietro l’altra).
Questa trasposizione di informazioni in bit genera una quantità molto grande di bit. Ad esempio: un secondo di ripresa televisiva genera oltre 166 milioni di bit. Tuttavia, utilizzando degli elaboratori e dell’apposito software è spesso possibile ridurre il numero di bit pur mantenendo quasi costante la qualità della riproduzione. Questa operazione consente di ridurre il numero di bit necessari per riprodurre un secondo di immagine televisiva a “solo” 1 milione di bit (ed anche meno). Il successo del digitale è dovuto proprio alla capacità di codifica e decodifica. La teoria che sta dietro queste operazioni non è affatto recente. Già verso fine dell’ottocento alcuni matematici avevano trovato dei modelli di trasformazione dell’informazione (ad esempio le trasformate di Fourier) e nella prima metà del novecento Shannon aveva gettato le basi per una comprensione completa della capacità offerte dalla digitalizzazione. Tuttavia il passaggio dalla teoria alla pratica ha dovuto attendere molti anni. Infatti l’effettuazione della codifica (e della decodifica) richiedeva una serie enorme di operazioni, il che si traduceva in un tempo lunghissimo rendendola in pratica impossibile. Verso gli anni 80 alcuni hanno cominciato a scommettere che l’evoluzione della capacità elaborativa avrebbe consentito la digitalizzazione di segnali complessi come quello televisivo e pur tra polemiche varie alcuni gruppi iniziarono a studiare sistemi pratici per la digitalizzazione di immagini e filmati. Tra questi il gruppo che maggiormente ha contribuito è stato MPEG, il Moving Picture Export Group, che, spinto dalla lungimiranza di Leonardo Chiariglione, un torinese forse più noto all’estero che non da noi in Italia, arrivò a proporre un primo standard di codifica e decodifica, l’MPEG 1. Nel momento in cui questo era stato proposto la capacità elaborativa era sì aumentata considerevolmente ma era ancora abbastanza cara, cioè non era proponibile che certe operazioni potessero essere svolte su terminali consumer. Ecco perché lo standard proposto era asimmetrico, richiedeva cioè molte più operazioni in fase di codifica che in quelle di decodifica. La codifica veniva fatta da industrie (che potevano quindi permettersi apparati molto sofisticati e costosi) mentre la decodifica poteva essere fatta da apparati della consumer electronics come ad esempio i lettori di CD. Con l’MPEG 1 era possibile codificare un segnale video ad un bit rate tale da renderlo utilizzabile anche da dei lettori di CD (che allora avevano velocità di trasferimento dell’ordine delle centinaia di migliaia di bit al secondo).
I progressi della capacità elaborativa hanno permesso di proporre standard più complessi, come MPEG 2 e MPEG 4 in grado sia di fornire segnali video a maggiore qualità sia di gestire i singoli oggetti all’interno di un filmato aprendo quindi la strada alla interattività.
MPEG 1, tuttavia, non è affatto superato. La parte che definisce la codifica dell’audio è forse oggi uno dei maggiori successi a livello consumer. I giovani la conoscono come sigla: Mp3. Nei prossimi anni si affermerà un sistema di codifica audio ancora più avanzato, AAC: anche questo è parte dello standard MPEG, in questo caso dell’MPEG 4.
Ma come avviene questa magia della riduzione del numero di bit pur mantenendo la qualità della informazioni riprodotta?
Immaginiamo di prendere una fotografia. Tradurre l’informazione in bit significa associare ad ogni punto della immagine un valore che esprime colore, brillantezza, saturazione…Quanto più piccoli saranno i punti che utilizzeremo tanto maggiore la fedeltà della rappresentazione (e quindi la possibilità di riprodurre l’immagine esattamente) ma tanto maggiore il numero di bit da utilizzare (questo vale non solo per i punti ma anche per esprimere la gradazione dei parametri: con un bit posso dire solo bianco o nero, con 4 bit posso esprimere 16 gradazioni e così via). Il numero di punti che scegliamo viene anche chiamato campionatura (ad esempio la musica può essere campionata 64 mila volte al secondo, 128 mila,…quanto più è frequente la campionatura tanto migliore la rappresentazione); allo stesso tempo per ogni singolo campione possiamo codificare su 4, 8, 16 bit: maggiore il numero dei bit usati e maggiore la possibilità di esprimere differenze di suono. Questi sono i due parametri che spesso troviamo sui programmi di codifica della musica.
Torniamo alla nostra fotografia. È possibile (anzi probabile) che esaminato e codificato il primo punto quando si passa a codificare il secondo si scopra che questo è uguale al primo. Immaginiamo un cielo nella parte alta della foto ed è molto probabile che molti punti consecutivi siano uguali l’uno all’altro. Anziché ripeterli possiamo comprimere l’informazione dicendo: “i prossimi 15 punti sono rappresentati dal numero 12”. Ecco che al posto di usare una stringa di 15 valori consecutivi (12,12,…) abbiamo usato due soli numeri (15-12).
Ecco spiegato come si riesce a comprimere l’informazione. Se ora al posto di una immagine abbiamo una serie di immagini (come nel caso di un film) possiamo applicare lo stesso meccanismo a due immagini in sequenza e codificare per la seconda immagine solo le differenze rispetto alla precedente. Anche qui è abbastanza intuitivo che, mediamente, due immagini in sequenza saranno molto simili per cui codificando solo le differenze risparmiamo un bel po’ di bit. Dopo un certo numero di immagini, tuttavia, la probabilità che siano intervenute differenze significative comincia a crescere e conviene allora trasmettere in modo completo una immagine. È quanto viene fatto con il sistema MPEG in cui ogni 15 immagini se ne trasmette una completa e le successive indicando le differenze dalla precedente.
Inoltre, se il codificatore si accorge che esiste una tendenza alla variazione (ad esempio un’auto che si muove sullo sfondo di un prato) può smettere di codificare questa variazione a patto che il decodificatore riesca ad intercettare questa tendenza esattamente come fa il codificatore e quindi proceda autonomamente ad inserirla. È proprio quello che accade con la codifica MPEG. Possiamo dire che viene sfruttata la “telepatia”. Cosa non riescono ad inventarsi gli ingegneri.

L’interattività

La possibilità di codificare una immagine (e un film) non solo come punti colorati ma anche come oggetti che questi punti formano (alcuni punti rossi sono relativi ad un fazzolettino, altri ad una mela…) permette l’interazione con gli oggetti stessi. Sprofondati nella nostra poltrona possiamo allora indicare la camicia dell’attore e chiedere dove sia possibile acquistarla e anche di togliere un certo oggetto che ne nasconde un altro! Lo stesso vale per la musica. Se il suono di ogni strumento è codificato come un oggetto indipendente è possibile in fase di ascolto attenuare il suono del violino e enfatizzare la voce della cantante. In pratica il regista…siamo noi.
L’interattività è sicuramente divertente. Lo diventa ancora di più se possiamo farla insieme a degli amici, magari anche se non siamo insieme.

Cellulare da polso realizzato al Media Lab di Boston. Le icone sullo schermo rappresentano gli amici e se questi sono o meno raggiungibili.

È quanto propongono vari ricercatori: fondere insieme la fruizione di uno spettacolo con le telecomunicazioni per permettere a persone separate nello spazio di essere unite in una dimensione virtuale e insieme partecipare allo spettacolo.
Lo schermo di un cellulare, convenientemente progettato per essere indossato come un orologio, può permettere di sapere dove sono i nostri amici e cosa stanno facendo (ovviamente se loro sono interessati a condividere con noi queste informazioni) e tramite il canale del cellulare si può interagire l’un l’altro e sincronizzare queste interazioni con lo spettacolo che ciascuno guarda “a casa sua” (o in qualunque altro punto in cui si trovi).
Oggi alcune televisioni hanno iniziato a trasmettere programmi che consentono agli spettatori di interagire (le votazioni via cellulare per l’elezione di Miss Italia ne sono state un esempio) e in futuro questo sarà possibile con sempre maggiore sofisticazione ed efficacia. Ad esempio, Telecom Italia Lab ha sviluppato un sistema, chiamato videointervento, che permette a ciascuno di noi di registrare il suo commento in video e di trasmetterlo in qualità televisiva utilizzando un canale ADSL direttamente da casa. Il regista potrà decidere di mandare in onda il nostro videoclip immediatamente o in altre trasmissioni.

La televisione digitale terrestre consente l’offerta di servizi interattivi, oltre ad un maggior numero di canali.

L’interazione, come vedremo in seguito, può essere anche esterna alla trasmissione. In questo caso lo spettacolo fa da sfondo e l’interazione avviene con amici, magari distanti, che seguono la stessa trasmissione (cosa ad esempio possibile con il sistema BHL sviluppato da Telecom Italia Lab in cui si può aprire una videoconferenza sul televisore vedendo quindi il nostro amico mentre guardiamo la partita di calcio), oppure può avvenire con un information provider a cui richiedere informazioni relative ad un certo spettacolo che si sta seguendo. In questo settore esistono già diversi esempi negli Stati Uniti ed è prevedibile che la diffusione dell’ADSL nelle nostre case fornirà una opportunità di mercato ad una varietà di aziende per fornire contenuti interattivi di ogni genere “agganciati” a spettacoli prodotti e trasmessi da altri.
La televisione digitale terrestre sarà certamente un’opportunità di questo tipo. Nei prossimi tre quattro anni in Italia diversi milioni di famiglie acquisteranno il set top box, un’apparecchiatura che trasforma il segnale digitale ricevuto dall’antenna (quella solita) in un segnale (analogico) comprensibile dal televisore. Dal 2006 in poi saranno in vendita i televisori con il ricevitore digitale incorporato. A quel punto il set top box non sarà più necessario per la decodifica del segnale. Potrebbe ancora essere necessario per accedere alle informazioni tramite la linea telefonica anche se, probabilmente, molti televisori a quella data avranno anche quest’interfaccia integrata nell’apparecchio.

Nuovi modi di fruizione

Prototipo di schermo flessibile contenuto in una normale penna, srotolabile quando serve.

Ovviamente il futuro ci promette ben più che poltrona e televisore. In prospettiva, nella prossima decade, potremo disporre di lenti a contatto elettroniche in grado di presentarci immagini. E questo senza che nessuno se ne accorga. Anche se potenzialmente potremmo essere in grado di guardare la televisione ad occhi chiusi (un collega potrà sempre pretendere di essere occupato a leggere un documento, altroché dormire, ma il dubbio probabilmente ci rimarrà), è probabile che questo tipo di lenti possa essere utilizzato per realizzare quello che i ricercatori chiamano la “mixed reality” una situazione in cui al reale si va a sovrapporre l’artificiale, creato tramite un computer.
Queste lenti faranno solo da schermo: non saranno in grado di elaborare le informazioni. Per questo sarà necessario utilizzare un microcomputer nascosto da qualche altra parte. Il motivo? Elaborare l’informazione richiede energia e questo a sua volta genera calore. Non è quindi possibile farlo nella lente, il nostro occhio non gradirebbe.

Postazione 3D utilizzata per addestrare i chirurghi a Stanford. Lo studente manipola una immagine virtuale attraverso strumenti chirurgici collegati ad interfacce aptiche in grado di ricreare le sensazioni tattili.

Più vicino nel tempo, diciamo nella seconda metà di questa decade, sono un insieme di supporti nuovi per visualizzare le informazioni, degli schermi flessibili facilmente ripiegabili per non parlare di quelli che possono essere riportati sui vestiti.
Sony e Philips hanno annunciato che per il 2005 metteranno in commercio dei lettori di e-book sottilissimi il cui schermo sarà basato su polimeri. Nell’anno successivo dovrebbero riuscire a commercializzare schermi di quel tipo ma senza il vetro e il supporto rigido utilizzando elettronica basata su “plastica”. Questo aspetto è essenziale in quanto l’elettronica basata su silicio raggiunge in fase di produzione temperature elevate che farebbero sciogliere i polimeri.

Nel 2007 questi schermi flessibili e portabili dovrebbero includere anche un ricetrasmettitore cellulare (un telefonino) consentendo quindi di scaricarsi il libro ed anche di richiedere informazioni specifiche.
L’intrattenimento potrà anche avvalersi di efficaci sistemi di rappresentazione tridimensionale associati ad interfacce aptiche in grado di ricreare una varietà di sensazioni migliorando di molto il senso di coinvolgimento.
Tridimensionalità, sensazioni e interattività saranno elementi fondamentali nell’intrattenimento del futuro.
Già oggi, comunque, si sono aperte nuove possibilità di intrattenimento utilizzando il telefonino. Anche qui si va oltre il video per arrivare a servizi in cui il gioco si sviluppa tra molti partecipanti, amici o no.
La classica battaglia navale può essere giocata sul telefonino, ma anche il classico “guardie e ladri” si presta. In questo caso (il gioco è attivo da diversi mesi in Norvegia) si vengono a creare comunità di guardie e altre di ladri, le une coalizzate contro le altre. Il telefonino serve sia per mantenersi in contatto con i membri della propria comunità sia per cercare i nemici e quando sono a tiro per sparare dei colpi (ovviamente virtuali) e fare punti.
L’accoppiata telefonino con altri wearable sarà vincente. Potremo, ad esempio, ascoltare non solo la nostra musica o quella che un fornitore ci metterà (spesso pagando) a disposizione, ma anche quella che stanno ascoltando dei nostri amici.

Nuove sceneggiature

I giochi hanno superato in termini di giro d’affari gli incassi dei film. Negli Stati Uniti nel 2003 i videogiochi hanno portato ad un incasso di 20 miliardi di $, più di quanto sia stato incassato ai botteghini per i film. Il costo di produzione di un gioco elettronico che punti a diventare un successo è intorno ai 5-8 milioni di $: tantissimo ma sempre meno di quanto costa produrre un film. E l’investimento può essere molto redditizio come nel caso di True Crime, un gioco lanciato da Activision che nel giro di un mese ha venduto per 100 milioni di $.
I giochi sono interattivi per definizione. Interessante notare come si stia sviluppando una linea di giochi che prendono a prestito i personaggi e le situazioni da film di successo, come 007, mentre sono ancora pochi gli esempi (e non di particolare successo) i film prodotti a partire da videogiochi (tipo Lara Croft).
I giochi di ruolo, i MUD, sono ulteriori esempi di intrattenimento in cui l’interazione gioca un ruolo particolarmente importante. In questi, tuttavia, l’interazione non si svolge all’interno di un copione ben definito (in cui in pratica interagire significa attivare una certa sequenza all’interno di un numero grande, ma pur sempre finito e pensato fin dall’inizio, di sequenze possibili), bensì l’interazione del singolo, insieme a quella di centinaia, migliaia di altre persone crea delle situazioni completamente nuove ed imprevedibili.

Sistema di interpretazione del movimento degli occhi, realizzato al Media Lab di Boston, per comprendere come una persona reagisce a stimoli visivi: divertita, spaventata, annoiata…

Questo tipo di interattività diventa possibile anche al di fuori dei videogiochi portandoci in una dimensione completamente nuova ed inesplorata. Cosa vuol dire creare una sceneggiatura di un film che si evolverà a seconda delle interazioni che genereranno gli spettatori, non solo quelle esplicite ma anche quelle implicite?
Alcune tecnologie, infatti, permettono ad un computer di capire se la persona che sta guardando un certo spettacolo lo trova interessante, si sta annoiando, è spaventata…Sulla base di queste reazioni si potrebbe far cambiare lo svolgimento del film o magari utilizzare delle scene di tipo diverso.
Questo tipo di evoluzione diminuisce il ruolo del regista? Probabilmente no. Quello che succede è che vengono messi a disposizione del regista degli strumenti ancora più efficaci per consentirgli di fare arrivare il suo messaggio alla singola persona. Ciascuno può in pratica vedere con il suo metro quel particolare film ed apprezzarlo al meglio.
Tuttavia ci mancano ancora gli strumenti concettuali, non quelli tecnologici, per riuscire a sviluppare questa pluralità di sceneggiature. Un affascinante campo per la ricerca.

Il cinema del futuro

Ovviamente l’adattamento del film alle aspettative del singolo utilizzatore non può avvenire in una sala cinematografica in cui vi sono non uno ma centinaia di spettatori. In questo caso il film che scorre sullo schermo deve essere un ragionevole compromesso che accontenta un po’ tutti, così come accade oggi.
Il cinema si sta evolvendo verso sistemi di trasmissione digitale dei contenuti e della loro proiezione tramite sistemi computerizzati.
Tuttavia la presenza del segnale digitale da un lato e della possibilità di comunicare via radio (magari in WiFi o prossimamente in UWB) ai singoli spettatori consente di rendere disponibili ai singoli delle informazioni personalizzate agli interessi di ciascuno, in sincrono con il film. Le pubblicità potremmo trovarcele in sovrapposizione al film, anziché all’inizio e alla fine, ma potrebbero essere quelle che richiediamo noi.
Inoltre potrebbe diventare possibile diventare in qualche modo partecipanti al film stesso. Mi interesserebbe la parte di un attore. Interfacce aptiche possono ricreare sensazioni simili a quelle che si suppone stia provando l’attore in quella particolare situazione. Questo sì sarebbe un calarsi nella parte.

L’intrattenimento in casa

I grandi schermi sono già oggi una realtà, come questo in figura da 70″ prodotto dalla Samsung. Il problema sono i costi. Entro fine decade, tuttavia, possiamo aspettarci che la continua discesa dei costi di produzione li possa rendere accessibili a molti di noi.

In prospettiva dovrebbe anche essere possibile catturare le azioni che si svolgono come se fosse un backstage che potremo utilizzare a casa per provare poi noi ad interpretare una scena insieme agli altri attori. Questo non è fantascienza.
Già oggi in alcuni film (ma il numero crescerà nei prossimi anni) un attore non recita insieme agli altri ma è solo su un apposito palcoscenico. L’ambiente, gli altri attori che poi vedremo insieme nel film, non sono li ma sono visibili su di un grande schermo. L’attore quindi recita da solo facendo finta di essere in un certo posto ed in una certa situazione. Cosa ovviamente non semplice dal punto di vista di chi deve recitare. Questo stesso meccanismo di backstage può essere reso disponibile (probabilmente pagando qualcosa) agli spettatori che potranno quindi provare ad essere loro protagonisti.
Certo l’idea di provare a rifare le espressioni di James Bond mentre precipita con un aereo con un qualche sensore che ci dà proprio quelle sensazioni potrebbe non essere un divertimento per tutti. Il rifare la scena in cui si intrattiene con la protagonista, invece, potrebbe essere sì di maggiore interesse ma al tempo stesso potrebbe generare proteste in chi ci ha sposati senza desiderare che fossimo attori…
In casa avremo comunque anche numerose altre possibilità per intrattenerci.

Uno dei divertimenti più facili ed innocui è quello di sedersi su di una panchina e vedere il mondo attorno a noi che corre e va. Questo tipo di divertimento sarà probabilmente comune nelle nostre case del futuro. Comodamente seduti in poltrona con di fronte a noi un grande schermo potremo collegarci ai quattro angoli del mondo e crearci una panchina virtuale su Time Square, o magari sotto le piramidi in Egitto e osservare la gente che in quel momento si trova li.
Il numero di webcam è in continua crescita, la loro qualità pure. Con una linea a banda larga ci si potrà godere lo spettacolo senza muoversi dal salotto. E se ci sentiamo dell’umore giusto perché non farsi una cenetta al lume di candela come le immagini di una spiaggia tropicale che scorrono sulla parete.
Potremmo ovviamente invitare amici distanti ad una chiacchierata con noi condividendo le immagini e le sensazioni.
Tra qualche anno le cartoline scompariranno dai posti turistici visto che questi troveranno più conveniente inviare una cartolina dall’obiettivo del telefonino. Al loro posto però potremo acquistare dei bigliettini con un codice che ci permetterà una volta a casa di accedere via rete ad immagini di cosa sta succedendo in quel posto, magari rivedere uno spettacolo etnico che ci era piaciuto o un altro che non abbiamo fatto in tempo a vedere. Potremo collegarci alle rive di un fiume in Africa per attendere il passaggio del leone.
Videocomunicazione e telecomunicazioni allargano in modo enorme le possibilità dell’intrattenimento. Saranno molte le aziende che si faranno in quattro per sfruttare queste possibilità e ovviamente, pur pagando, ci guadagneremo.

L’intrattenimento on the move

Prototipo di occhiali con inserito uno schermo elettronico per visualizzare immagini. L’astina contiene un piccolo altoparlante per riprodurre i suoni e il tutto è collegato in Bluetooth con un computer indossabile.

Le lenti a contatto elettroniche citate all’inizio sarebbero compagne ideali delle nostre scampagnate ma è probabile che dovremo aspettare ancora una decina di anni prima che diventino disponibili e forse altrettanti prima che vengano superate le diffidenze verso questo tipo di schermi.
Sicuramente più vicini sono i sistemi in cui lo schermo è realizzato dagli occhiali. Alle tecnologie di qualche anno fa basate su veri e propri schermi televisivi miniaturizzati (e che non hanno mai avuto un vero successo per i potenziali problemi alla vista che potevano essere generati) stanno seguendo tecnologie in cui l’immagine viene vista tramite riflessione: un proiettore la trasmette sulle lenti rese opportunamente opache e i nostri occhi la vedono. Questo non solo diminuisce le preoccupazioni per possibili problemi alla vista, aumenta anche la possibilità di dare un senso di profondità agli oggetti visualizzati.
Schermi portatili, non solo quelli dei telefonini o dei palmari, stanno iniziando ad apparire. Collegati con la rete di telecomunicazione permettono di fruire di una varietà di intrattenimenti.

Gli schermi portatili, specie di walkman, stanno iniziando ad apparire e probabilmente si diffonderanno molto nei prossimi anni. Saranno schermi che potranno visualizzare immagini (e suoni) provenienti da una varietà di apparati che avremo con noi, dalla telecamera al telefonino.

Ad esempio potremmo disporre di uno di questi schermi mentre facciamo i turisti e a seconda di dove siamo potremmo ricevere sul nostro schermo informazioni sul posto, su chi ha fatto un certo monumento e magari sottoscrivere un servizio della Walt Disney che ci fa rivivere una certa epoca storica sovrapponendola alla realtà.
Il mixed reality sarà tra la fine di questa decade e la prossima un enorme business ed una grande fonte di intrattenimento per tutti.
Le tecnologie renderanno la cosa fattibile e il maggior tempo libero di cui disporremo (oltre a ulteriormente migliorate condizioni economiche) ci permetterà di usufruirne.
Le agenzie viaggio, ma soprattutto le grandi aziende specializzate nell’intrattenimento, svilupperanno servizi di mixed reality specializzati ai diversi segmenti di clientela e particolarizzati agli interessi specifici di ciascuno.
Questo divertimento non sarà solo “usa e getta” cioè consumato all’istante, ma avremo la possibilità di conservarlo nel tempo e poi anche riviverlo. Alcuni scopriranno che è più divertente crearsi durante la vacanza un libro di viaggio, piuttosto che comperarne uno già stampato. E potrà essere un libro molto ricco e con una impostazione professionale, sia in termini di struttura sia come contenuti. Ci verranno infatti in aiuto una molteplicità di aziende, locali e remote, che faranno in modo di trasformare i nostri “appunti” in un’opera piacevole da sfogliare (sì, proprio da sfogliare: è probabile che il vecchio album di foto stampate e il libro non scompaiano, ma continuino ad esistere per il piacere di sfogliarli).

Tra intrattenimento e realtà: nuovi scenari per l’intrattenimento

Se ci proiettiamo nel futuro la creatività degli artisti e le possibilità tecnologiche garantiscono un caleidoscopio di intrattenimenti.
I più coraggiosi potranno chiedere di fare un giro veramente emozionante su di un ottovolante in cui tramite mixed reality proprio mentre hanno raggiunto il culmine dell’ascesa vedranno i binari della discesa sbriciolarsi ed avranno l’impressione di precipitare, oppure vedranno un enorme masso inseguirli come capitava ad Indiana Jones. Quando scenderanno dai vagoncini, forse un po’ scossi dopo l’esperienza troveranno ad aspettarli la loro ragazza sorridente…ma sarà davvero lei o solo un’immagine opportunamente ricreata per cui quando cercheranno di abbracciarla troveranno il vuoto?
Alcuni potrebbero chiedere che la loro vita venga “speziata” con dell’imprevisto e trovarsi quindi a vivere situazioni credibili ma virtuali.
Ogni momento della nostra vita, se ci piace, può trasformarsi in un momento di intrattenimento: una coda alle poste, una attesa nello studio di un medico, il solito ingorgo del venerdì sera.
E intrattenersi non vuole solo dire divertimento fine a se stesso: significa anche continuare a ricevere stimoli, imparare; in fondo restare giovani, aspetto questo che sarà sempre più importante in una evoluzione che ci ha visto aggiungere 20 anni alla nostra vita media e che alcuni scienziati ritengono possa portare nel prossimo secolo a superare di un bel po’ i cento anni di età.
Buone prospettive tutto sommato per i singoli.
Ma un ottimo business anche per chi, e saranno sempre di più, opererà nel settore dell’intrattenimento.
Come ho avuto modo di dire i problemi non sono tanto sul versante tecnologico. L’evoluzione della tecnologia apre molte strade ma raramente indica quali siano le migliori da percorrere.
Viene alla mente una scenetta del film Capricci all’italiana in cui Totò impersona un burattinaio. Durante uno spettacolo il pubblico, anziché ascoltare passivamente come dovrebbe, inizia ad intervenire ed allora Totò inizia a far rispondere prima ai burattini e poi diventa burattino lui stesso per poter interagire con il pubblico in modo più efficace. Le cose non vanno per il meglio e quella che doveva essere una tranquilla rappresentazione si trasforma in una zuffa. Ma anche questo è intrattenimento.

L'autore

  • Roberto Saracco
    Roberto Saracco inizia ad appassionarsi di tecnologia molto tempo fa. Formatosi come matematico e informatico è attualmente a capo della Industrial Doctoral School dell’Istituto Europeo dell’Innovazione e la Tecnologia, è presidente della Symbiotic Autonomous Systems Initiative promossa da IEEE-FDC. Ha diretto fino all’aprile del 2017 lo snodo italiano dell’EIT. In precedenza è stato, fino a dicembre 2010, direttore del Future Centre di Telecom Italia a Venezia, cercando di comprendere le interrelazioni tra evoluzione tecnologica, economia e società. È attualmente Senior Member dell’IEEE, dove dirige l’Industry Advisory Board all’interno del Future Directions Committee. Insegna all’Università di Trento. Roberto Saracco ha pubblicato oltre 100 articoli accademici in giornali e riviste specializzate.

Vuoi rimanere aggiornato?
Iscriviti alla nostra newletter

Novità, promozioni e approfondimenti per imparare sempre qualcosa di nuovo

Gli argomenti che mi interessano:
Iscrivendomi dichiaro di aver preso visione dell’Informativa fornita ai sensi dell'art. 13 e 14 del Regolamento Europeo EU 679/2016.