L'interazione con computer e smartphone avverrà come nel film Minority Report, attraverso liberi gesti e senza più tastiere e schermi tattili: e la tecnologia già esiste. Parla l'esperto di interfacce John Underkoffler

Dimenticate il mouse e la tastiera, ammesso che ne ricordiate ancora l'esistenza. Dimenticate i touchscreen dei vostri smartphone e tablet, che fate funzionare con il semplice tocco delle dita. Che tenete in tasca o nella borsa ovunque andiate, illudendovi di essere già nel mondo di domani. Il futuro dell'interazione uomo-macchina è qualcosa di più e di meglio, perché si basa sul semplice gesto, sul libero movimento nello spazio interpretato come comando da macchine sempre più intelligenti.

Macchine che sanno dove vi trovate e dove si trovano esse stesse. Anzi, dove si trova ogni singolo pixel dei loro schermi. E che usano queste preziose informazioni per funzionare come se fossero un tutt'uno, consentendo interazioni fino a ieri impensabili. «Quando sistemi digitali interconnessi diventano consapevoli dello spazio che occupano e che li circonda - spiega John Underkoffler, co fondatore di Oblong Industries e pioniere della ricerca sulle User interface (UI) - la stessa computazione diventa liquida, in modo che dati, contenuti e applicazioni possano fluire sotto il controllo umano, da luogo a luogo e da dispositivo a dispositivo».

Chi ha visto almeno una volta nella vita Minority Report, thriller fantascientifico tratto da un racconto di Philip K. Dick, sa esattamente di cosa si parla: quando il protagonista interpretato da Tom Cruise manipola dati e immagini con le mani, i gesti che compie non sono casuali, ma ispirati direttamente da un approfondito studio condotto proprio da Underkoffler sulle "interfacce utente spaziali". In rete, si trovano ancora le immagini del manuale che il ricercatore approntò per il regista Steven Spielberg, e sul quale si basò il training al quale Cruise si sottopose prima di iniziare le riprese.

Quell'interazione uomo-macchina venne presentata come fantascienza, e di certo al tempo lo era. Ma gli studi che c'erano dietro di fantascientifico non avevano nulla, tanto che sono in corso ancora oggi ed hanno prodotto risultati tanto concreti quanto interessanti. Ma cos'è e come funziona la Spatial User Interface descritta e sviluppata da Underkoffler?
«Se ogni dispositivo sa dove esso e i suoi pixel si trovano, dove si trovano i computer, gli schermi e ogni altro device nelle vicinanze e, ancora, se sa dove si trovano anche gli essere umani che li usano, allora un'interazione incredibilmente potente diventa possibile - spiega il Ceo di Oblong, che sarà ospite a Roma di Techcrunch Italy il prossimo 26 e 27 settembre - La tecnologia alla quale lavoriamo funziona in modo tale che l'utente possa puntare con la mano o con una bacchetta qualsiasi cosa vede su uno schermo. Tutto ciò che viene indicato con un gesto si attiva e può essere manipolato e controllato, come se ci si fosse fatto click sopra con un mouse».

Indicare un oggetto sullo schermo e prenderne il controllo è già qualcosa fuori dall'ordinario, ma è solo una parte della "magia"
«Una volta che un'immagine, un video, un'applicazione attiva sono stati selezionati con un gesto, li si può letteralmente lanciare verso un altro schermo, computer o device, dove continueranno a essere utilizzabili o a funzionare».

Macchine diverse ma interconnesse, consapevoli della loro posizione, e per questo capaci di lavorare come un tutt'uno, condividendo risorse e potenza di calcolo. Una rivoluzione.
«Una User Interface che sia veramente rivoluzionaria non si riconosce dall'aspetto o dal modo in cui funziona (sebbene anche questo sia importante), ma dalle sensazioni che ci induce. Noi crediamo che una buona UI sia quella che fa sentire l'utente capace ed elettrizzato, come se all'improvviso fosse in grado di scrivere un'opera rock o cucinare un banchetto Sichuan. Affinché una UI sia davvero rivoluzionaria deve essere dieci volte più "radicale" di quelle che oggi definiamo innovative. Per fare un esempio, l'interfaccia multitouch di cui disponiamo oggi dà all'utente la sensazione di essere ingegnosa, ma noi dobbiamo costruire interfacce che si possano percepire come complete».

Attualmente sono in via di sviluppo anche altre tecnologie che potrebbero davvero trasformare il nostro modo di interagire con i computer. Quali sono secondo Lei le più promettenti?
«Si parla molto e in maniera promettente di interfacce basate sulla lettura del pensiero, ma al momento è fantascienza di buona qualità. E anche quando saranno disponibili sensori realmente capaci di leggere i nostri pensieri, l'interazione con la macchina funzionerà solo se gli esseri umani sapranno imparare a modulare e controllare i loro processi mentali - proprio come abbiamo dovuto imparare a gestire contemporaneamente la lettura delle immagini e l'uso della mano per poter controllare un mouse. Non sarà semplice ma credo che ci riusciremo. Siamo una specie estremamente adattabile».

Ci sono poi i sistemi di interpretazione della voce umana.
«Anche i sistemi di controllo vocale sono promettenti, ma hanno dei problemi. Da un lato, la tecnologia di riconoscimento vocale ha fatto grandi progressi negli ultimi 5 anni. Dall'altro, sul fronte dell'interfaccia utente di progressi ne sono stati fatti pochissimi. La domanda è: cosa fare con una volta che la macchina può riconoscere il linguaggio umano? E come se qualcuno fosse finalmente riuscito a risolvere tutti i problemi elettrici e meccanici relativi alla costruzione di un ottimo mouse, ma poi non disponesse di un computer con interfaccia grafica a cui collegarlo. Creare una buona UI è possibile, solo che ancora nessuno lo ha fatto».

Milioni di persone nel mondo usano dispositivi mobili come principale porta d'accesso alla rete e a ciò che ha da offrire. Che impatto ha questo fenomeno sullo sviluppo delle interfacce utente?
«La nuova supremazia dei dispositivi mobili ha un impatto complesso e articolato sul modo di pensare le UI. Proprio la portabilità di questi device implica infatti che l'interazione possa avvenire ovunque e in qualsiasi momento, e queste specifiche condizioni richiedono semplicità nel design delle UI. In particolare una bassa richiesta di attenzione e concentrazione. Poi, dal momento che tutto avviene in mobilità, il designer non può neanche ipotizzare dove tale interazione possa avvenire (se per esempio l'utente è seduto, solo o in compagnia, se ha entrambe le mani libere). Tutti elementi che impongono una ferrea disciplina e precise limitazioni che finiscono con impoverire l'esperienza.

C'è poi da considerare il fatto che smartphone e tablets usano l'interfaccia touch come sistema per l'input dei dati, e che le interfacce utente costruite intorno a questa tecnologia sono generalmente meno "capaci" di quelle basate su mouse e tastiera. La scrittura su tastiera digitale non è altrettanto veloce e precisa, o ancora, Il puntamento bidimensionale non è altrettanto accurato. Questo significa che l'interfaccia risultante alla fine ha un limite nel livello di complessità e ricchezza che può raggiungere. E che quindi i sistemi touch non potranno mai essere una soluzione adatta per tutti gli scopi».

Un problema non da poco vista l'incredibile diffusione di smartphone e tablet. Come ce la caviamo?
«Dobbiamo assicurarci che gli utenti nel mondo non credano che i dispositivi mobili e i sistemi touch siano il vero "next stage" nello sviluppo delle interfacce. Perché non lo sono, sono solo un pezzo del puzzle. Come specie, abbiamo scelto di creare una società che dipende profondamente dalla tecnologia, quindi è nostro dovere esigere che tale tecnologia, specie quando è nuova, sia la migliore possibile. Ovvero quella che sa bilanciare equamente le esigenze tecniche con quelle del design».