Il multi-touch senza touch

Guardando il video che presenta l’interfaccia tattile che non si tocca sviluppata dalla californiana Oblong Industries, il cinefilo più accanito rischia di restare senza fiato: sullo schermo scorrono immagini che ricordano da vicino Tom Cruise che interagisce con i futuribili computer del film di Steven Spielberg Minority Report: con l’unica differenza che quest’ultimo è pura funzione fantascientifica, mentre l’interfaccia multi-touch e multi-gestoure di Oblong, chiamata g-speak, è realtà.

Le somiglianze non sono per niente casuali: John Underkoffler, chief scientist dell’azienda, è stato il consulente tecnico del film in questione e ha ovviamente basato i consigli forniti agli attori e al regista sulla sua esperienza personale. Che inizia al MIT negli anni ’90 e finisce oggi, in Oblong Industries e nella sua interfaccia innovativa. L’obiettivo, dichiaratamente ambizioso, è quello di rivoluzionare una volta per tutte il modo in cui gli esseri umani entrano in contatto con i computer, e anche il modo in cui le informazioni vengono rappresentate, gestite, fruite.
Con un gesto si spostano le informazioni da uno schermo all’altro, con un gesto si possono selezionare più informazioni e trascinarle da quanto è mostrato nei maxi-pannelli verticali al più piccolo monitor orizzontale. Per ruotare un’immagine occorre afferrarne un capo con due dita e applicare una sorta di spinta virtuale con la mano libera. Un’applicazione che è multidesktop e multitasking, ma che trascende il concetto del paradigma della scrivania e si concentra piuttosto sulla gestione dei contenuti a prescindere dalle limitazioni che mouse e tastiere di solito impongono agli utenti.

Con due guanti dotati di sensori alle mani e quelle che sembrano una serie di telecamere che ne riprendono il movimento, g-speak vuole trasformarsi in un perfetto sostituto delle interfacce tradizionali: il lavoro del PARC e di Apple per lo sviluppo di icone, finestre e puntatori viene identificato come la rivoluzione precedente nel campo dell’interazione uomo-macchina, che ora però deve essere superata dall’approccio gestuale e in un certo senso non mediato delle dita reali che manipolano gli oggetti virtuali.

Il risultato, secondo gli sviluppatori, è un ambiente di lavoro facile da usare, già pronto per offrire a due o più individui di collaborare sulla stessa area dello schermo, e garantire un’adeguata integrazione del desktop (ammesso abbia ancora senso chiamare così l’ambiente tridimensionale di g-speak) in rete. E lo sforzo si distribuisce su tre livelli: la costruzione di un’architettura differente, la realizzazione di un’interfaccia grafica, la scrittura di applicazioni in grado di sfruttare entrambe.

Quanto sia complicato sviluppare un software per g-speak è un mistero, ma in ogni caso esistono già kit di sviluppo per Linux e Mac. Oblong Industries si dice disponibile anche a fornire supporto per la creazioni di applicazioni che rispondano a esigenze specifiche degli acquirenti. Ci sarebbero inoltre già alcune installazioni funzionanti di g-speak, anche in alcune grandi aziende, sia di grandi dimensioni sia adatte all’uso di un singolo utente per volta.

G-speak è, in ogni caso, un prodotto finito e non una beta. È in vendita, anche se il prezzo è solo su richiesta, a chiunque sia interessato: tra i settori che secondo l’azienda possono trarre maggior profitto da questa nuova interfaccia ci sono quello finanziario, la logistica e l’intelligence (militare e non), gli analisti dati, i medici, i grafici e ovviamente chi è impegnato nella presentazione di prodotti al pubblico.

Quello che invece è senz’altro una beta è lo Scratch Input creato da Scott Hudson e Chris Harrison, della Carnegie Mellon University. Ancora un’interfaccia gestuale, che questa volta invece di essere ottica è acustica: la registrazione con uno stetoscopio del rumore delle dita su un tavolo o una parete può essere trasformato in un messaggio codificato, ancora una volta gesture, che controlla un’applicazione di un computer.

Sfruttando la trasmissione nel materiale denso di un muro o di un tavolo del segnale ad alta frequenza generato dallo sfregamento, le informazioni possono essere catturate anche a metri di distanza dalla sorgente senza problemi. Persino il corpo umano, che per gran parte è costituito d’acqua, si rivela essere un discreto strumento di trasmissione a corto raggio per questo tipo di rumore: con il microfono messo nel posto giusto, si potrebbe tranquillamente pensare di digitare su uno schermo raspando sulla gamba.

Il movimento delle dita che descrivono gesti codificati è peculiare: il computer identifica il movimento attraverso le accelerazioni e lo spostamento sulla superficie, e li traduce nei comandi stabiliti. I suoi inventori assicurano che il tutto potrebbe essere tranquillamente inglobato in dispositivi grandi e piccoli. Ad esempio un cellulare dotato di questa tecnologia, e appoggiato sulla scrivania a casa o al lavoro, potrebbe essere posto in modalità silenziosa semplicemente grattando un po’ il tavolo. Nel loro studio, Harrison e Hudson sostengono che in pochi minuti chiunque può diventare pratico dei gesti necessari, e che il risultato è ottimale nel 90 per cento dei casi.

Fonte: punto-informatico.it

Questa voce è stata pubblicata in news. Contrassegna il permalink.

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...