Le migliori interfacce per computer: passato, presente e futuro

Gli scienziati informatici di tutto il mondo si riuniranno questa settimana a Boston presso Interazione uomo-computer 2009 per discutere gli ultimi sviluppi nelle interfacce dei computer. In concomitanza con l'evento, presentiamo una carrellata delle più belle interfacce per computer passate, presenti e future.





Schermo multitouch: Surface di Microsoft è un esempio di schermo multitouch.

La riga di comando
Il capostipite di tutte le interfacce dei computer è la riga di comando, che è emersa come un modo più efficace per controllare i computer negli anni '50. In precedenza, i comandi dovevano essere inseriti in un computer in batch, di solito tramite una scheda perforata o un nastro di carta. Le macchine telescriventi, normalmente utilizzate per le trasmissioni telegrafiche, sono state adattate per consentire agli utenti di modificare i comandi durante un processo e ricevere feedback da un computer quasi in tempo reale.

Le unità di visualizzazione video consentivano di visualizzare più rapidamente le informazioni della riga di comando. Il VT100, un videoterminale rilasciato dalla Digital Equipment Corporation (DEC) nel 1978, è ancora emulato da alcuni moderni sistemi operativi come mezzo per visualizzare la riga di comando.



Le interfacce utente grafiche, emerse commercialmente negli anni '80, hanno reso i computer molto più facili da usare per la maggior parte delle persone, ma la riga di comando offre ancora notevole potenza e flessibilità per gli utenti esperti.

Il topo
Al giorno d'oggi, è difficile immaginare un computer desktop senza il suo iconico compagno: il mouse.

Sviluppato 41 anni fa da Douglas engelbart allo Stanford Research Institute, in California, il mouse è indissolubilmente legato allo sviluppo del computer moderno e ha anche svolto un ruolo cruciale nell'ascesa dell'interfaccia utente grafica. Engelbart dimostrò il mouse, insieme a molte altre innovazioni chiave, tra cui l'ipertesto e la collaborazione a schermo condiviso, in un evento a San Francisco nel 1968.



I primi mouse per computer erano disponibili in una varietà di forme e forme, molte delle quali oggi sarebbero quasi irriconoscibili. Tuttavia, quando i topi sono diventati disponibili in commercio negli anni '80, lo stampo è stato impostato. Tre decenni dopo e nonostante alcune modifiche (compresa la perdita della coda), il topo rimane relativamente invariato. Questo non vuol dire che le aziende non abbiano provato ad aggiungere tutti i tipi di miglioramenti, tra cui un mini joystick e un ventilatore per mantenere la mano fresca e senza sudore.

Logitech da solo ha venduto più di un miliardo di questi dispositivi, ma alcuni credono che il mouse sia allo stremo. L'ascesa di altre interfacce più intuitive potrebbe finalmente allentare la presa del mouse su di noi.

Il touchpad
Nonostante la forte concorrenza di track ball e joystick, il touchpad è emerso come l'interfaccia più popolare per i computer portatili.



Con la maggior parte dei touchpad, il dito di un utente viene rilevato rilevando le interruzioni di un campo elettrico causate dalla capacità naturale del dito. È un principio che è stato impiegato fin dal 1953 dal pioniere canadese della musica elettronica Hugh Le Caine , per controllare il timbro dei suoni prodotti dal suo primo sintetizzatore, soprannominato Sackbut.

Il touchpad è importante anche come precursore dell'interfaccia touch-screen. E molti touchpad ora dispongono di funzionalità multitouch, ampliando la gamma di possibili utilizzi. Il primo touchpad multitouch per computer è stato dimostrato nel 1984 da Bill Buxton , poi professore di progettazione e interazione informatica presso l'Università di Toronto e ora anche principale ricercatore presso Microsoft.

Lo schermo multitouch
Menziona i computer touch screen e la maggior parte delle persone penserà a quelli di Apple i phone o di Microsoft Superficie . In verità, la tecnologia ha già un quarto di secolo, avendo debuttato nel computer HP-150 nel 1983. Molto prima che i computer desktop diventassero comuni, gli schermi tattili di base venivano utilizzati negli sportelli automatici per consentire ai clienti, che erano in gran parte analfabeti informatici, di utilizzare i computer senza molta formazione.



Tuttavia, è giusto dire che l'iPhone di Apple ha contribuito a far rivivere il potenziale dell'approccio con il suo schermo multitouch. Diversi produttori di telefoni cellulari ora offrono dispositivi multitouch e si prevede che sia Windows 7 che le versioni future del Macbook di Apple faranno lo stesso. Varie tecniche possono abilitare schermi multitouch: rilevamento capacitivo, infrarossi, onde acustiche di superficie e, più recentemente, rilevamento della pressione.

Con questo rinascimento, possiamo aspettarci un lessico completamente nuovo di gesti progettati per rendere più facile manipolare i dati e richiamare i comandi. In effetti, una sfida potrebbe essere trovare i mezzi per riprodurre i comandi esistenti in modo intuitivo, dice Agosto de los Reyes , un ricercatore dell'esperienza utente che lavora su Surface di Microsoft.

Gesto rilevamento
Magnetometri, accelerometri e giroscopi compatti consentono di monitorare il movimento di un dispositivo. Utilizzando sia il controller Wii di Nintendo che l'iPhone, gli utenti possono controllare giochi e applicazioni manovrando fisicamente ciascun dispositivo in aria. Allo stesso modo, è possibile mettere in pausa e riprodurre musica sul telefono cellulare Nokia 6600 semplicemente toccando due volte il dispositivo.

Anche le nuove applicazioni mobili stanno iniziando a sfruttare questa tendenza. Stai zitto , ad esempio, consente agli utenti Nokia di silenziare il telefono semplicemente girandolo a faccia in giù. Un'altra app, chiamata nAlertMe , utilizza un codice gestuale 3D per impedire il furto del dispositivo. Il telefono emetterà un segnale acustico acuto se l'utente non sposta il dispositivo a mezz'aria secondo uno schema predefinito per accenderlo.

Il prossimo passo nel riconoscimento dei gesti è quello di consentire ai computer di riconoscere meglio visivamente i movimenti della mano e del corpo. Sony's Eye ha dimostrato che i movimenti semplici possono essere riconosciuti con relativa facilità. Tuttavia, è più difficile tracciare movimenti 3D più complicati in condizioni di illuminazione irregolare. Startup, tra cui Xtr3D , con sede in Israele, e Soft Kinetic, con sede in Belgio, stanno sviluppando un software di visione artificiale che utilizza gli infrarossi per applicazioni di gioco che rilevano tutto il corpo.

Oblong, una startup con sede a Los Angeles, ha sviluppato un sistema operativo spaziale che riconosce i comandi gestuali, a condizione che l'utente indossi un paio di guanti speciali.

Feedback di forza
Un campo di ricerca chiamato tattile esplora i modi in cui la tecnologia può manipolare il nostro senso del tatto. Alcuni controller di gioco vibrano già con un impatto sullo schermo e, allo stesso modo, alcuni telefoni cellulari tremano quando passano alla modalità silenziosa.

I controller aptici più specializzati includono il PHANTOM, realizzato da SensAble, con sede a Woburn, MA. Questi dispositivi sono già utilizzati per la progettazione 3D e la formazione medica, ad esempio consentendo a un chirurgo di praticare una procedura complessa utilizzando una simulazione che non solo sembra, ma è anche realistica.

L'aptica potrebbe presto aggiungere un'altra dimensione anche ai touch screen: simulando meglio la sensazione di fare clic su un pulsante quando viene toccata un'icona. Vincent Hayward , uno dei maggiori esperti del settore, presso la McGill University, a Montreal, in Canada, ha dimostrato come generare diverse sensazioni associate a diverse icone su un pulsante tattile. A lungo termine, Hayward ritiene che sarà anche possibile utilizzare l'aptica per simulare la sensazione delle trame su uno schermo.

Voce Riconoscimento
Il riconoscimento vocale ha sempre lottato per scrollarsi di dosso la reputazione di essere lento, goffo e, troppo spesso, impreciso. La tecnologia è davvero decollata solo in aree specialistiche in cui viene impiegato un sottoinsieme limitato e ristretto di linguaggio o dove gli utenti sono disposti a investire il tempo necessario per addestrare un sistema a riconoscere la propria voce.

Questo ora sta cambiando. Man mano che i computer diventano più potenti e gli algoritmi di analisi più intelligenti, il riconoscimento vocale continuerà a migliorare, afferma Robert Weidmen, VP del marketing per Sfumatura , l'azienda che produce Dragon Naturally Speaking.

L'anno scorso, Google ha lanciato un'app di ricerca vocale per iPhone, che consente agli utenti di effettuare ricerche senza premere alcun pulsante. Un'altra applicazione per iPhone, chiamata Vlingo , può essere utilizzato per controllare il dispositivo in altri modi: oltre alla ricerca, un utente può dettare messaggi di testo ed e-mail, oppure aggiornare il proprio stato su Facebook con pochi semplici comandi. In passato, la sfida consisteva nell'aggiungere una potenza di elaborazione sufficiente per un telefono cellulare. Ora, tuttavia, velocità di trasferimento dati più elevate significano che è possibile utilizzare server remoti per gestire senza problemi il numero di crunching richiesto.

Realtà aumentata
Un'entusiasmante interfaccia emergente è la realtà aumentata, un approccio che fonde le informazioni virtuali con il mondo reale.

Le prime interfacce di realtà aumentata richiedevano apparecchiature complesse e ingombranti per il rilevamento del movimento e la computer grafica. Più di recente, i telefoni cellulari dotati di potenti chip di elaborazione e sensori devono portare la tecnologia alla portata degli utenti ordinari.

Esempi di realtà aumentata mobile includono Nokia Applicazione mobile di realtà aumentata (MARA) e Wikitude , un'applicazione sviluppata per il sistema operativo del telefono Android di Google. Entrambi consentono a un utente di visualizzare il mondo reale attraverso lo schermo di una fotocamera con annotazioni virtuali e tag sovrapposti. Con MARA, questi dati virtuali vengono raccolti dai punti di interesse memorizzati nell'applicazione di navigazione satellitare NavTeq. Wikitude, come suggerisce il nome, raccoglie i suoi dati da Wikipedia.

Queste applicazioni funzionano monitorando i dati provenienti da un arsenale di sensori: i ricevitori GPS forniscono informazioni di posizionamento precise, le bussole digitali determinano la direzione in cui punta il dispositivo e i magnetometri o gli accelerometri ne calcolano l'orientamento. Un progetto chiamato Nokia Image Space fa un ulteriore passo avanti consentendo alle persone di archiviare esperienze (immagini, video, suoni) in un luogo particolare in modo che altre persone possano recuperarle nello stesso punto.

Interfacce spaziali
Oltre a consentire la realtà aumentata, i ricevitori GPS ora presenti in molti telefoni possono tracciare le persone geograficamente. Questo sta generando una serie di nuovi giochi e applicazioni che ti consentono di utilizzare la tua posizione come forma di input.

Latitudine di Google , ad esempio, consente agli utenti di mostrare la propria posizione su una mappa installando un software su un telefono cellulare abilitato per il GPS. Ad ottobre 2008, circa 3.000 app per iPhone erano già a conoscenza della posizione. Una di queste applicazioni per iPhone è iNap , progettato per monitorare la posizione di una persona e svegliarla prima che perda la fermata del treno o dell'autobus. L'idea è venuta dopo che Jelle Prins, della società di sviluppo software olandese Moop, era preoccupata di perdere la sua fermata sulla strada per l'aeroporto. L'app può connettersi a un popolare programma di pianificazione dei treni utilizzato nei Paesi Bassi e identificare automaticamente le tue fermate in base alle tue precedenti routine di viaggio.

Rete di sicurezza , un'applicazione con rilevamento della posizione sviluppata per la piattaforma Android di Google, consente all'utente di definire le parti della città che ritengono generalmente non sicure. Se vagano accidentalmente in una di queste aree vietate, il programma si attiva e suonerà un allarme e chiamerà automaticamente il 911 in vivavoce in risposta a una rapida scossa.

Interfacce cervello-computer
Forse l'interfaccia per computer definitiva, e ancora lontana, è il controllo mentale.

Gli impianti chirurgici o i sensori dell'elettroencefalogramma (EEG) possono essere utilizzati per monitorare l'attività cerebrale di persone con gravi forme di paralisi. Con la formazione, questa tecnologia può consentire ai pazienti bloccati di controllare un cursore del computer per scrivere messaggi o guidare una sedia a rotelle.

Alcune aziende sperano di portare lo stesso tipo di tecnologia di interfaccia cervello-computer (BCI) nel mainstream. Lo scorso mese, neurosky , con sede a San Jose, in California, ha annunciato il lancio delle sue cuffie da gioco Bluetooth progettate per monitorare la semplice attività EEG. L'idea è che i giocatori possano ottenere poteri extra a seconda di quanto sono calmi.

Oltre ai giochi, la tecnologia BCI potrebbe essere utilizzata per alleviare lo stress e il sovraccarico di informazioni. Un progetto BCI chiamato Cognitive Cockpit (CogPit) utilizza le informazioni EEG nel tentativo di ridurre il sovraccarico di informazioni sperimentato dai piloti di jet.

Il progetto, precedentemente finanziato dalla Defense Advanced Research Projects Agency (DARPA) del governo degli Stati Uniti, è progettato per discernere quando il pilota è sovraccarico e gestire il modo in cui le informazioni gli vengono fornite. Ad esempio, se sta già comunicando verbalmente con la base, potrebbe essere più appropriato avvertirlo di una minaccia in arrivo utilizzando mezzi visivi piuttosto che tramite un avviso acustico. Stimando il loro stato cognitivo da un momento all'altro, dovremmo essere in grado di ottimizzare il flusso di informazioni verso di loro, afferma Blair Dickson, ricercatore del progetto con la società di tecnologia della difesa del Regno Unito. Qinetiq .

nascondere