2.  Evoluzione dei paradigmi d’interazione

Sintesi del capitolo

Questo capitolo traccia una breve storia dell’evoluzione dei principali paradigmi per l’interazione uomo-computer che si sono consolidati nell’ultimo mezzo secolo, in stretta relazione con le tecnologie per l’interazione: la teletype, il terminale video, il personal computer, il browser web, il mobile. Con il social computing l’interfaccia utente assume, infine, il compito di mediare l’interazione fra più utenti connessi in rete.  A conclusione del Capitolo, si accenna all’evoluzione in atto verso la cosiddetta intelligenza ambientale.

Paradigmi e tecnologie di interazione

Con i primi computer l’utente non aveva alcuna interazione diretta. Di solito, lasciava al centro di calcolo il pacco di schede (batch) con i lavori (job) da svolgere, e passava a ritirare i tabulati con i risultati qualche ora dopo, o il giorno successivo. Il computer veniva gestito da operatori specializzati, ed era sostanzialmente inavvicinabile dall’utilizzatore finale, che era comunque un tecnico. Da quando, con i sistemi time-sharing degli anni ’60, questo utente ha avuto la possibilità di interagire direttamente con la macchina attraverso un terminale interattivo, la comunicazione fra uomo e calcolatore si è evoluta consolidando un certo numero di paradigmi d’interazione diversi, che vogliamo qui ripercorrere brevemente. Come filo conduttore sceglieremo l’evoluzione della tecnologia:  i differenti dispositivi che si sono di volta in volta maggiormente diffusi hanno suggerito modalità di interazione differenti e, a loro volta, ne sono stati influenzati, in un ciclo di retroazione fra lo strumento e il suo utilizzo che ha prodotto una evoluzione continua e radicale delle modalità di interazione uomo-macchina, tuttora in corso (Figura 1).

Figura 1.  Evoluzione dei paradigmi d’interazione uomo-computer

Dovendo schematizzare, prenderemo come riferimento sei tecnologie fondamentali, che hanno determinato altrettanti paradigmi di interazione fra uomo e computer, la cui evoluzione nel tempo è indicata approssimativamente nella Figura 2:

·      il terminale scrivente;

·      il terminale video;

·      il personal computer;

·      il browser web;

·      il mobile.

Figura 2.  Evoluzione dei paradigmi/tecnologie d’interazione uomo-computer

 

Come si vede dallo schema di Figura 2, e come vedremo meglio in seguito, l’evoluzione dei paradigmi d’interazione non è sequenziale. In ogni momento convivono paradigmi differenti, in un gioco di sovrapposizione e d’interazioni molto complesso. Questo perché, normalmente, il ciclo di vita di una generazione tecnologica è più lungo del ciclo dell’innovazione della tecnologia. In altre parole, l’innovazione tecnologica produce prodotti di nuova generazione prima che i prodotti della generazione precedente abbiano concluso la loro esistenza nel mercato.

Tipicamente, il software ha un ciclo di vita piuttosto lungo: un sistema di software applicativo può vivere, rimanendo essenzialmente se stesso nonostante i continui interventi di manutenzione, anche per diecine d’anni. Ne consegue che raramente il software in uso presso un’organizzazione viene rinnovato contestualmente al rinnovo delle tecnologie hardware e, in particolare, di quelle relative all'interazione utente-calcolatore. Si osserva quindi in molti casi, per così dire, un ritardo dei paradigmi d’interazione adottati dal software effettivamente in uso, rispetto a quanto sarebbe possibile in relazione all’evoluzione della tecnologia. Così, ad esempio, programmi progettati per essere utilizzati con terminali scriventi sono spesso sopravvissuti a lungo dopo l'adozione di terminali video. Si pensi, ad esempio, ai line editor, sopravvissuti a volte per molti anni all’introduzione dei terminali video, nonostante che questa tecnologia permettesse, con gli editor full-screen, un trattamento del testo ben più agevole; si pensi, ancora, ad alcuni grossi sistemi di prenotazione voli basati su un'interazione a comandi ancora in uso, ecc. Si osserva così, spesso, una sorta di sovrapposizione di paradigmi diversi in uno stesso sistema di calcolo, che in qualche modo riflette l’evoluzione tecnologica avvenuta durante la vita del sistema stesso.

Il terminale scrivente: scrivi e leggi

Il terminale scrivente o teletype era essenzialmente un apparato composto da tastiera e stampante integrata, a foglio continuo (Figura 3). A confronto con i terminali sviluppati successivamente, le prestazioni erano molto modeste, sia per quanto riguarda la velocità di stampa (per esempio, 30 caratteri al secondo) che per quanto riguarda la velocità di trasmissione lungo la linea verso il calcolatore (per esempio, qualche diecina di caratteri al secondo). Con la mediazione di tale dispositivo, con il calcolatore si dialoga per iscritto; il paradigma d’interazione che si è inizialmente consolidato è pertanto quello della comunicazione scritta:

SCRIVI E LEGGI

Tipicamente, il calcolatore segnala all'utente il suo stato di attesa comandi; l'utente digita allora un comando, cui segue la risposta dell'elaboratore e il sollecito (prompt) successivo, che vengono stampati sul rullo di carta. Questa è la modalità comunicativa di molti command language (come per esempio quello tradizionale dei sistemi Unix, MS-DOS e Linux), o dei query language per l'interrogazione di basi di dati (come ad esempio il linguaggio SQL) o, ancora, di molti adventure game della prima generazione, di tipo testuale.

Figura 3.  Terminale scrivente (teletype)

In tutti questi esempi, è l'utente che ha il controllo del dialogo: il computer ha un ruolo passivo, limitandosi a riconoscere le richieste e a fornire le risposte.  Sono stati tuttavia sviluppati, anche sistemi in cui questi ruoli sono invertiti, e il dialogo è totalmente controllato dalla macchina: è l'utente ad avere un ruolo passivo, e si limita a fornire le risposte richieste. Esempi tipici sono i sistemi esperti, gli advisory system, e in generale tutti quei sistemi in cui è il calcolatore ad avere competenza del problema e potere di decisione nella conduzione della conversazione.

La Figura 4 mostra un tipico esempio di questo stile di interazione, tratto da Mycin, un sistema esperto progettato nei primi anni ’70, il cui scopo era suggerire gli antibiotici più adatti per curare specifiche infezioni batteriche. Mycin poneva al medico una serie di domande, in un ordine predeterminato in funzione delle risposte precedenti.

Figura 4.   Dialogo controllato dal sistema (Mycin)

 

Paradigmi basati su una vera e propria conversazione fra utente e sistema, in questa fase dell’evoluzione del dialogo uomo-macchina, sono ancora al di fuori delle possibilità della tecnologia, non solo per le difficoltà tecniche insite nell'elaborazione del linguaggio naturale, ma soprattutto per la grande complessità e ricchezza intrinseche nella nozione stessa di conversazione.

Il terminale video: indica e compila

Con l'introduzione, dal 1971, del terminale video (Figura 5), il tabulato continuo della teletype viene sostituito dallo schermo video (tipicamente  di 24 linee di 80 caratteri). La velocità di visualizzazione di una singola schermata è praticamente istantanea, e quella di trasmissione sulla linea verso il calcolatore aumenta in modo considerevole (tipicamente, tra 150 e 1200 caratteri al secondo). La tastiera si arricchisce di svariati tasti funzione, che attivano servizi eseguiti dal software residente sul calcolatore remoto o direttamente dal terminale. Altro aspetto innovativo è la presenza, sul video, di un cursore spostabile in ogni direzione mediante tasti appositi. Questo permette all'utente di indicare una posizione precisa del video. Il cursore è una sorta di "pennino" che "deposita sul video" il carattere digitato alla tastiera, o un "dito" con cui indicare l'elemento informativo d’interesse: un carattere, un campo di input, una voce di menu, ecc. Permettendo una nuova dimensione "gestuale" (l'atto di indicare sul video qualcosa con il cursore), il terminale video introduce, sia pure in embrione, un paradigma nuovo, che si svilupperà appieno con i sistemi dotati di mouse: quello della manipolazione diretta. 

Figura 5.  Terminale video IBM 3270 (1972)

 

La possibilità di visualizzare rapidamente sul video l'informazione che si sta elaborando, e di indicare col cursore la specifica porzione d’interesse, suggerisce lo sviluppo di modalità di comunicazione completamente diverse da quelle che si potevano realizzare con una teletype. Per esempio, negli editor full-screen, l'utente che crea o corregge un testo non opera più su una pagina invisibile e pertanto soltanto "immaginata", come avveniva in precedenza nei line editor,  ma su una pagina ben visibile sullo schermo, indicando col cursore il punto desiderato (per esempio, il punto in cui inserire altro testo, o il brano da cancellare).

I sistemi software di questa generazione propongono tipicamente un paradigma di interazione basato su menu e form,  da compilare spostando il cursore sui vari campi di input:

INDICA E COMPILA

A questa categoria di sistemi appartiene la maggior parte delle applicazioni gestionali sviluppate a partire dagli anni ‘70 per oltre un quarto di secolo: la compilazione, campo per campo, di una form visualizzata sullo schermo diviene il paradigma standard per le applicazioni di tipo transazionale (come i sistemi informativi aziendali).

Per evidenziare meglio la struttura delle form (differenziando i campi variabili rispetto al testo fisso, separando le varie zone della maschera, ecc.), i terminali video si arricchiscono negli anni di funzioni grafiche, anche se rudimentali: caratteri di testo visualizzati in doppia intensità, sottolineati o in reverse, caratteri grafici con cui comporre cornici o separare zone del video, ecc. Una molteplicità di tasti funzionali specializzati permette un’interazione scorrevole ed efficiente.

Le transazioni da svolgere sono tipicamente selezionate attraverso menu: su più linee del video sono proposte le varie alternative possibili, che l'utente può selezionare con semplici operazioni alla tastiera, per esempio digitandone il numero d'ordine. Spesso i menu sono organizzati in modo gerarchico, con la voce di un certo livello che richiama un menu di livello inferiore, e così via, fino ad arrivare alla form della transazione selezionata.

Dal punto di vista della qualità dell'interazione, questo paradigma semplifica molto la natura del dialogo uomo-computer che, se da un lato guadagna semplicità (le scelte possibili sono ben visibili sullo schermo), dall'altro perde ricchezza (le scelte possibili sono solo quelle visibili sullo schermo). Con menù e maschere l'utente è completamente guidato, ma il computer assume un ruolo alquanto più passivo che in precedenza: da soggetto di un dialogo (che almeno metaforicamente, e con molta generosità, poteva ricordare il dialogo fra due interlocutori umani - si pensi all'immagine del "cervello elettronico", ricorrente negli anni '50 e '60), diviene ora puro oggetto di manipolazione, più o meno come un telefono, una lavatrice, un televisore.

Il personal computer: non dirlo, fallo

Nel personal computer, al video e alla tastiera si aggiungono potenza di calcolo locale, possibilità di archiviazione su dischetti flessibili asportabili o su dischi interni e possibilità di stampa locale. Dopo i primi home computer, nati alla fine degli anni settanta e destinati essenzialmente al mercato degli amatori o al nuovo incerto mercato dell'home computing, dal 1981 il personal computer entra nel mondo delle aziende con il PC IBM (Figura 6a). Questo si afferma subito come standard di fatto, al quale quasi tutti i costruttori si allineano proponendo macchine compatibili.

Figura 6.   Il primo PC IBM (a) e il primo Apple Macintosh (b)

 

Con il personal computer l'elaboratore esce dal centro edp e arriva sulla scrivania di utenti non informatici: impiegati, professionisti, studenti.  Dal punto di vista dell'interazione uomo-macchina, nasce una nuova era. Nell'arco di pochi anni vengono realizzate e diffuse applicazioni software innovative, concepite per un mercato di largo consumo, che non hanno eguali fra i prodotti dell’informatica tradizionale, per facilità d'uso e attenzione complessiva all’interfaccia con l’utente.

Rispetto al terminale video, due sono le grandi novità che modificano drasticamente la qualità dell'interazione. Da un lato, la potenza di calcolo locale permette al computer di reagire agli stimoli dell'utente con tempi di risposta quasi immediati, a differenza dei terminali tradizionali, che dovevano attendere la risposta dell’elaboratore collegato da linee dati ancora relativamente lente. Dall'altro lato, la possibilità di archiviazione locale cambia profondamente il rapporto dell'utente con i dati gestiti dall’elaboratore. Questo, da depositario di dati conservati in archivi centrali e accessibili soltanto per il suo tramite, diviene piuttosto uno strumento di manipolazione dei dati, che l'utente gestisce in modo flessibile, decidendo di volta in volta dove depositarli, se su supporti asportabili (dagli iniziali floppy-disc fino agli attuali pen-drive) oppure sul disco interno alla macchina.

Il personal computer introduce una forte discontinuità con il passato, e avvia un processo di radicale trasformazione degli strumenti informatici. Dal punto di vista dell’interazione uomo-computer, l’esempio più significativo è probabilmente quello del foglio elettronico (o spreadsheet), la “killer application” del personal computer, cioè il prodotto software che, da solo, ha più contributito alla rapida diffusione sul mercato di questo strumento.

Visicalc, il primo foglio elettronico, fu realizzato da Dan Bricklin e Bob Frankston inizialmente per il personal computer Apple II nel 1979 (Figura 7). Esso sfruttava appieno la possibilità di un’interazione estremamente rapida con il calcolatore. Con un programma di questo tipo, utente e computer operano alternativamente su una tabella visibile sullo schermo, contenente dati legati fra loro da relazioni matematiche, anche molto complesse. Ogniqualvolta l'utente aggiorna un valore in tabella, il programma, in modo pressoché istantaneo, aggiorna tutti i valori correlati, permettendo all'utente di verificare le conseguenze delle proprie variazioni (in un bilancio, in un budget, in un piano di vendite, ...), e di modificare nuovamente, di conseguenza, i valori forniti. Il computer diviene uno strumento flessibile di simulazione what if  ("che cosa succederebbe se..."), in un rapporto interattivo con il suo utente  sconosciuto in passato. Per non rallentare queste manipolazioni, i menu e i dati (che nelle applicazioni transazionali classiche apparivano in momenti diversi sul video) vengono ora collocati assieme in un'unica schermata, che contiene sia la tabella del foglio elettronico che un menu orizzontale, ridotto a una o due righe dello schermo (menu bar).

 

Figura 7.  Visicalc per Apple II (1979)

 

Il sistema operativo del PC IBM, l’MS-DOS della neonata Microsoft, aveva un’interfaccia utente piuttosto rudimentale, basata su un linguaggio di comandi del tipo scrivi-e-leggi, e quindi di concezione piuttosto antiquata. La grande rivoluzione, che determinerà il paradigma del personal computing fino ai nostri giorni, doveva nascere nei laboratori del PARC (Palo Alto Research Center) della Xerox. Qui, un gruppo di pionieri della HCI stava da tempo sperimentando prototipi di personal workstation per il lavoro di ufficio. Il risultato principale di queste attività fu il sistema Star (1981), un computer personale dotato di elevata potenza di calcolo, video grafico di buona risoluzione, a doppia pagina, tastiera e mouse (Figura 8).  

Figura 8.  Personal computer Xerox Star (1981)

 

Il mouse, inventato da Douglas Engelbart a metà degli anni 60, apparirà per la prima volta sul mercato con lo Star, e diventerà in seguito il corredo standard di ogni personal computer. L'utente, spostando il mouse sul piano della scrivania, è in grado di muovere un puntatore sul video, con grande precisione e rapidità.  Il mouse è dotato, secondo i modelli, di uno, due o tre pulsanti, premendo i quali è possibile comunicare al calcolatore informazioni aggiuntive.  È, in sostanza, come se l'utente indicasse un oggetto sul video e dicesse, contemporaneamente, "questo!".

Il mouse introduce possibilità d’interazione completamente nuove rispetto alla semplice tastiera, permettendo di comunicare con il calcolatore, per così dire, a gesti. Nonostante la sua semplicità, esso permette infatti una buona varietà di azioni: puntare (pointing), cliccare (clicking) una o due volte (double-clicking), col tasto sinistro o destro del mouse (right-clicking), premere (pressing), trascinare (dragging). La disponibilità di un video grafico a buona risoluzione, su cui rappresentare oggetti con accurata resa grafica, e di un mouse con cui indicare, selezionare, trascinare questi oggetti qua e là per lo schermo, suggeriscono allora un paradigma d’interazione del tutto nuovo, che possiamo sintetizzare con lo slogan:

NON DIRLO, FALLO

 

A questo paradigma è stato dato il nome di manipolazione diretta[1], perché l’utente può operare direttamente sugli oggetti rappresentati graficamente sul video, selezionandoli, spostandoli, manipolandoli in vario modo. In questo modo si elimina - o almeno si riduce notevolmente - l’intermediazione del linguaggio scritto nella comunicazione fra uomo e calcolatore. Anche se gli oggetti grafici da manipolare possono essere di qualsiasi tipo, il paradigma della manipolazione diretta è stato principalmente utilizzato per la realizzazione di sistemi basati sulla metafora della scrivania (desktop). Questa, inventata dai progettisti del PARC della Xerox, apparve per la prima volta sullo Star, con tutti gli elementi base dei sistemi odierni: finestre (windows), icone che rappresentavano documenti e cartellette (folder), menu (Figura 9). Lo Star però era ancora troppo costoso, e fu un flop commerciale. L’idea fu invece portata con grande successo sul mercato di massa dalla Apple con il primo Macintosh (1984), una macchina a basso costo con un’interfaccia desktop molto semplificata, ma eccezionalmente gradevole (Figura 10). Successivamente il paradigma fu adottato dalla Microsoft, e si diffuse universalmente, a partire dal sistema Windows 3.0 (1990) e soprattutto con Windows 95 (Figura 11), fino a diventare il paradigma standard per i personal computer. Nonostante le differenze e i numerosi miglioramenti introdotti nei vari sistemi, gli elementi costitutivi di questo stile di comunicazione sono, a trent’anni di distanza, ancora quelli proposti nel 1981 con il sistema Star.  A questo stile d’interfacce si dà spesso il nome di WIMP, acronimo per Windows, Icons, Mouse, Pointer.

Figura 9.  Il desktop dello Xerox Star (1981)

 

F:\PUBL_PC\_PERSONA\POLILLO\01. SCREESHOTS-DB\Immagini file06\Macintosh\Mac8 (Immagine).tif

Figura 10.       Il desktop del primo Apple Macintosh (1984)

 

Figura 11.       Il desktop di Microsoft Windows 95 (1995)

 

Il paradigma della manipolazione diretta sarà poi applicato, oltre che nelle interfacce di tipo desktop, nei sistemi basati sulla metafora del pannello di controllo. Qui, il video tende ad assomigliare al pannello di un'apparecchiatura elettronica, con pulsanti, interruttori, slider, spie luminose, display  numerici, ...  Esempi di questa tendenza sono numerosi, dai sistemi che realizzano quadri di comandi per impianti di controllo di processo, ai vari simulatori, come il classico Flight Simulator della Microsoft. In esso, a partire dai primi anni ’80, il video mostrava, fedelmente riprodotto nei dettagli, il quadro dei comandi di un aereo (indicatore della velocità dell'aria, altimetro, orizzonte artificiale, bussola, misuratore del carburante, pressione e temperatura dell'olio, ...).

Oggi si preferisce usare il termine “manipolazione diretta” quando l’interazione avviene direttamente su uno schermo tattile. In effetti, l’interazione attraverso il mouse o dispositivi quali touchpad o tavoletta grafica è di tipo indiretto: invece di operare sullo schermo, l’utente opera sul piano della scrivania (reale) o sulla tavoletta.  Con la tecnologia degli schermi multi-touch, la manipolazione diretta degli oggetti rappresentati sullo schermo si arricchisce in modo sostanziale, permettendo di utilizzare nel dialogo uomo-macchina una gestualità naturale, sviluppata nell’interazione con gli oggetti reali. La Figura 12 ne mostra un semplice esempio: i gesti utilizzati per ingrandire (a sinistra) e rimpicciolire (a destra) un’immagine visualizzata sullo schermo di un iPhone. Non è difficile trovare altri esempi, più complessi.

Figura 12.        Esempio di manipolazione diretta con schermi multi-touch (dal manuale dell’Apple iPhone, 2007)

 

Il browser web: point & clic

L'uso del mouse, con l’azione di puntare e cliccare come metodo base dell’interazione, suggerisce naturalmente l'idea di presentare sul video dei "bottoni” virtuali sui quali operare premendo i bottoni (reali) del mouse. Si delinea così un nuovo stile del dialogo uomo-computer, in cui la comunicazione di base è molto semplificata, riducendosi alla semplice pressione di bottoni. I bottoni stessi si evolvono e, per così dire, si smaterializzano, trasformandosi in testo cliccabile o aree sensibili su immagini grafiche:

POINT & CLIC

 

Questa modalità d’interazione si diffonderà, a partire dalla fine degli anni ’80, con i primi sistemi per la gestione di ipertesti. Essenzialmente, un ipertesto è un testo costituito di parti chiamate nodi, fra loro collegati da link, che associano nodi semanticamente correlati (Figura 13). Il lettore di un ipertesto non è più vincolato a una lettura sequenziale, ma lo può “esplorare” lungo percorsi diversi e personalizzati, in funzione dei suoi interessi.

v

Figura 13.       Ipertesto

 

Nel caso in cui i nodi contengano, oltre al testo, anche componenti multimediali (immagini, audio, animazioni, video) si usa il termine più generale di ipermedia. L’anno di diffusione su larga scala dell’idea di ipermedia può essere considerato il 1987, con due eventi importanti: la prima edizione del convegno biennale dell’ACM su questa tecnologia (ACM Conference on Hypertext and Hypermedia), e il lancio sul mercato di Hypercard, il software per la creazione la gestione di ipermedia realizzato da Bill Atkinson per il Macintosh della Apple. Questo programma, per quel tempo rivoluzionario, permetteva di costruire ipertesti (chiamati stack) composti da pagine grafiche (chiamate card), sulle quali si potevano definire delle aree sensibili al clic del mouse, ciascuna collegata a un link. Cliccando su una di tali aree si attivava il link, che portava all’esecuzione di un programma (script) ad esso associato, scritto in un linguaggio di programmazione molto semplificato (hypertalk). Nei casi più semplici, questo script si limitava a prelevare dallo stack una specificata card, e a mostrarla sul video (Figura 14).  In altri casi, poteva eseguire calcoli complessi.

Figura 14.       Hypercard (Apple, 1987)

Per i primi anni gli ipertesti furono esclusivamente off-line, realizzati per il nuovo mercato dei CD multimediali. La vera diffusione su scala planetaria del paradigma “point and click” avverrà però solo qualche anno dopo, dai primi anni ’90, con l’invenzione del Web per opera di Tim Berners-Lee. Il World Wide Web altro non è, infatti, che un gigantesco ipertesto, i cui nodi (chiamati pagine) non sono contenuti in un unico archivio locale (come in Hypercard), ma sono distribuiti geograficamente, sui server connessi alla rete Internet. L’utente naviga all’interno del Web attraverso un browser: un programma per personal computer che, sostanzialmente, visualizza una pagina web e supporta l’utente nella navigazione attraverso le funzioni di point & clic. Con questa tecnologia, il Web assume ben presto una dimensione planetaria. La crescita del World Wide Web è esponenziale: dal primo sito messo in rete da Berners-Lee nel 1991, si arriverà agli oltre 200 milioni di siti a inizio 2010, distribuiti su centinaia di milioni di server (oltre 700 milioni nel 2009). La Figura 15 mostra una stima della crescita dei siti web nel mondo, a partire dal 1996. La linea più alta rappresenta il numero totale di siti, quella più bassa solamente i siti che risultano attivi.

Figura 15.       Siti web nel mondo (x1000)[2]

 

Per risolvere il problema del reperimento delle informazioni all’interno di questo spazio, nascono allora le directory (per esempio Yahoo) e i motori di ricerca, che indicizzano l’enorme quantità di informazioni presenti sul Web e ricercano, in questi indici, le parole chiave fornite dall’utente.

Attraverso il browser web, che convive con l’interfaccia classica di tipo desktop del personal computer, gli utenti imparano a navigare nella rete. In pochi anni, il personal computer assume una dimensione nuova: da sistema stand-alone su cui svolgere prevalentemente lavoro di word processing, calcolo e archiviazione personale, a information appliance, un dispositivo per la ricerca e l’accesso all’informazione in rete.  I comportamenti degli utenti si modificano radicalmente: la diffusione della banda larga e la riduzione dei costi di connessione permettono a una crescente percentuale di utenti collegamenti always-on, che permettono un accesso potenzialmente istantaneo a tutta l’informazione disponibile sul Web.

Nonostante questa profonda trasformazione, l’interfaccia dei personal computer resta sostanzialmente ancorata al paradigma del desktop, nato più di due decadi prima. Il programma di accesso alla mail e il browser web non sono in alcun modo delle applicazioni privilegiate, nonostante che in molti casi l’uso del PC sia sostanzialmente incentrato su questi due programmi. In particolare, i browser web non si discostano sostanzialmente dal modello proposto inizialmente da Mosaic (1993): un visualizzatore di pagine web – una pagina alla volta, nella finestra aperta sul desktop – tra le quali navigare con il modello del point&click e con l’ausilio di un motore di ricerca.

Se l’interfaccia rimane la stessa, il Web evolve continuamente, e in modo radicale. Dai primi anni 2000, permette all’utente di trasformarsi, da navigatore e consumatore passivo dell’informazione presente in rete, a creatore di contenuti. Si diffondono sistemi che permettono agli utenti di effettuare l’upload di propri contenuti in rete, senza che per questo sia necessario disporre di particolari competenze tecniche e di server propri. In molti casi, il servizio è disponibile gratuitamente, o a costi molto contenuti.  Nascono milioni di blog, in cui gli utenti pubblicano i loro pensieri, gigantesche collezioni di immagini (per esempio www.flickr.com), di video (per esempio, www.youtube.com), di musica; nascono opere collettive realizzate da migliaia di volontari, come www.wikipedia.com. Sulla copertina del Natale 2006 della rivista Time, tradizionalmente dedicata al personaggio dell’anno, non compare alcun ritratto, ma semplicemente uno specchio fissato sullo schermo di un personal computer, con la scritta: YOU. L’utente, da navigatore, si è fatto protagonista del Web. A partire dai primi anni del nuovo secolo, la rete diventa l’infrastruttura di base attraverso cui gli utenti comunicano, socializzano, interagiscono e collaborano fra loro. Il Web, che prima era considerato sostanzialmente un gigantesco ipertesto, si trasforma nel social Web. Gli utenti, a milioni, si tengono costantemente in contatto attraverso i siti di social networking: nel 2010, Facebook (fra i tanti, il più popolato) conta più di 350 milioni di utenti. 

I siti web, da contenitori di informazioni accessibili sostanzialmente in sola lettura, evolvono radicalmente, e si trasformano in applicazioni software a disposizione (molto spesso gratuitamente) degli utenti. La rete è vista come un gigantesco computer, in grado di erogare informazioni e servizi applicativi a milioni di utenti (cloud computing).[3] In questo nuovo contesto, il paradigma point&clic si arricchisce di possibilità. L’utente “punta e clicca” non solamente per navigare fra le pagine, ma anche per eseguire applicazioni. Mentre nel vecchio Hypercard le applicazioni risiedevano localmente sul proprio PC, ora sono servizi erogati attraverso la rete da sistemi remoti, potenzialmente sparpagliati sull’intero pianeta. Spesso un’applicazione integra servizi provenienti da fornitori diversi, senza che l’utente ne sia consapevole (mashup). Un esempio paradigmatico è costituito da Hyperwords, un semplice plugin per browser. Esso permette all’utente, cliccando su una parola di una qualsiasi pagina web, di attivare, su quella parola, un servizio di rete scelto fra un menu di possibilità. La Figura 16 ne mostra un esempio. Cliccando su una parola qualsiasi (in questo caso, “United Kingdom”) e selezionando Reference e poi Google Definition dai menu che appaiono, viene visualizzata la definizione di “United Kingdom” secondo Google. Cliccando invece Reference e poi Wikipedia comparirà la pagina di Wikipedia relativa alla stessa parola. Le possibilità sono numerose, quanto i servizi in rete. Per esempio, è possibile trovare la parola in un dizionario, ricercarla con il motore di ricerca preferito, trovarne le illustrazioni disponibili in un repository d’immagini, perfino tradurla in una lingua selezionata, usando il traduttore di Google. Il tutto è realizzato, semplicemente, attivando il servizio e trasmettendogli la parola selezionata come parametro.         

Figura 16.       http://www.hyperwords.com (2009)

Il mobile: alzati e cammina

Il paradigma della mobilità (mobile computing) ha una storia che inizia da lontano. Già nei primi anni ’70 Alan Key, allora ricercatore al PARC della Xerox nel dream team che avrebbe determinato gran parte dell’evoluzione dei modelli d’uso del calcolatore, aveva immaginato uno strumento che per quei tempi sembrava fantascientifico, al quale aveva dato il nome di Dynabook, per dynamic book, libro dinamico.  In un articolo visionario del 1977, aveva scritto:

Immaginate di avere il vostro personale manipolatore di conoscenza in confezione portatile, della dimensione e della forma di un normale blocco da appunti. Supponete che esso abbia abbastanza potenza da superare i vostri sensi della vista e dell'udito, abbastanza capacità da immagazzinare, per un successivo reperimento, migliaia di pagine-equivalenti di materiale di riferimento, poemi, lettere, ricette, registrazioni, disegni, animazioni, spartiti musicali, forme d'onda, simulazioni dinamiche, e qualunque cosa voi possiate desiderare di ricordare e modificare. Pensiamo a un apparecchio piccolo e portatile per quanto è possibile, in grado sia di ricevere sia di fornire informazioni in quantità paragonabili a quelle del sistema sensorio umano. L'output visivo dovrebbe essere, almeno, di qualità migliore di quella ottenibile dai giornali. L'output uditivo dovrebbe avere un simile standard di alta fedeltà. Non ci dovrebbe essere alcuna pausa percepibile fra causa ed effetto. Una delle metafore che abbiamo usato per progettare tale sistema è quella di uno strumento musicale, come un flauto, che è posseduto dal suo utilizzatore e risponde in modo istantaneo e consistente ai desideri del suo proprietario. Immaginate quanto sarebbe assurdo il ritardo di un secondo fra l'atto di soffiare una nota e il suo ascolto! [4]

Uno strumento di questo tipo era ancora ben lontano dalle possibilità della tecnologia, hardware e software: lo si poteva solo immaginare o, al più,  visualizzare con modellino di cartone (Figura 17).  Tuttavia il lavoro di Alan Kay ebbe una grandissima influenza sulle evoluzioni successive dei modelli d’interazione.

Figura 17.       Modello di cartone del Dynabook, circa 1971-72[5]

 

Subito dopo la diffusione dei personal computer all’inizio degli anni ’80, accanto alle macchine destinate a una postazione fissa (chiamati desktop computer, o computer da scrivania), iniziarono ad apparire sul mercato computer personali portatili. I primi modelli non assomigliavano né al Dynabook né ai portatili di oggi, erano ingombranti e pesanti. L’Osborne 1, commercializzato nel 1981 quasi contemporaneamente al primo PC IBM, pesava circa 11 chili ed era privo di batteria. La situazione migliorò dal 1982-83, quando apparvero i primi laptop, cioè dei PC che potevano essere tenuti “in grembo” (lap) e il cui schermo poteva essere ripiegato sulla tastiera, “a conchiglia”. Mancando l’appoggio sulla scrivania, il mouse dovette essere sostituito da altri dispositivi di manipolazione, fra cui i touchpad disposti sulla tastiera. I laptop meno ingombranti, idealmente delle dimensioni di un libro da appunti, furono in seguito chiamati notebook (Figura 18). I notebook specialmente concepiti per l’utilizzo in rete (mail, browsing, servizi applicativi in rete), piccoli e leggeri (per esempio, meno di due chili) e con buona autonomia e basso costo, furono allora chiamati netbook (circa 2007).

Figura 18.       Laptop (Lenovo ThinkPad, circa 2008)

 

Con i notebook, e soprattutto con i netbook dotati di accesso wireless alla rete, l’utente non ha più la necessità di disporre di una postazione fissa: può portare con sé una stazione d’accesso a Internet utilizzabile da qualsiasi località con copertura di rete (nomadic computing). Questo modello d’interazione è vincente, e sostituirà in breve tempo quello da postazione fissa. La data che simbolicamente inizia l’”era dei notebook” è il settembre 2009: nel terzo trimestre del 2009, infatti, le vendite di notebook in tutto il mondo superano, per la prima volta, quelle dei PC da scrivania. Da questo momento, il notebook si afferma come lo strumento per tutti, e non più soltanto per il mercato business, al quale si era inizialmente indirizzato.[6]  Non si tratta ancora, tuttavia, di un uso in mobilità: notebook e netbook, per quanto piccoli e leggeri, devono comunque essere usati “da fermo e da seduto”. Le modalità d’interazione, per quanto più snelle, sono ancora sostanzialmente quelle messe a punto per l’accesso da postazioni fisse, a parte l’uso del mouse, sempre più spesso sostituito dai touchpad, anche realizzati con tecnologie multi-touch.[7]  L’uso di strumenti di comunicazione e di calcolo “in mobilità e in piedi” (mobile computing) richiede modalità d’interazione completamente diverse.   

Queste modalità iniziano a diffondersi dagli anni ’90, con l’introduzione dei palmtop (da palm=palmo della mano) o, in italiano, palmari, piccoli computer chiamati così perché capaci di stare in una mano. Con rifermento alle funzioni inizialmente prevalenti, questi computer sono stati spesso denominati PDA, per personal digital assistant (assistenti digitali personali). I primi PDA non si connettevano alla rete, ma servivano a gestire la rubrica di indirizzi, l’agenda degli appuntamenti (in sincronizzazione con quelle sul desktop), a prender appunti, e così via. Il primo PDA di grande successo, il Palm Pilot (Figura 19), sul mercato dal 1996, era dotato di un piccolo schermo tattile resistivo e di uno stilo, con cui l’utente poteva scrivere testi utilizzando una tastiera virtuale sul video, oppure utilizzando una forma semplificata di scrittura a mano libera, denominata Graffiti. Una parte di questa alfabeto è riportato in Figura 20 (il pallino su ogni carattere indica da dove si deve iniziare per tracciarlo).

Figura 19.       Palm Pilot 1000 (1996)

 

Figura 20.        Alfabeto Graffiti (Palm Pilot)[8]

 

Negli stessi anni, si assiste allo sviluppo esplosivo della telefonia mobile. Inizialmente i telefoni cellulari sono semplici, fornendo le funzionalità di base per effettuare telefonate e inviare sms. Ma ben presto il telefono cellulare inizia a integrare funzioni sempre più complesse, e si trasforma rapidamente in un dispositivo del tutto nuovo. Se ne esaminiamo l’evoluzione dal punto di vista delle modalità d’interazione con l’utente, possiamo identificare cinque generazioni di apparati[9], che si susseguono (e si sovrappongono) sul mercato nello spazio di pochi anni (vedi Figura 21).

Figura 21.       Modelli tipici delle 5 generazioni di telefoni cellulari.
a: Motorola Dyna TAC 8000 (1G, 1983); b: Nokia 5110 (2G, 1998);
c: Motorola V3 RAZR (2.5G, 2005); d: Nokia 9000 Communicator (3G, 1996);
e: Apple iPhone 3G (2008). Le dimensioni sono approssimativamente in scala.

 

·       Prima generazione (1G, circa 1978 1988).

E’ la “preistoria” della telefonia mobile. Gli apparati sono ingombranti e costosi, anche per il peso di batterie con la potenza sufficiente per collegarsi a una rete poco sviluppata e quindi geograficamente molto sparsa. L’uso è limitato a utenti con necessità di telefonare in mobilità per lavoro (per esempio, rappresentanti, venditori, ecc.). Un prodotto tipico di questa generazione è il DynaTAC della Motorola, introdotto nel 1983 (Figura 21a).

·       Seconda generazione (2G, circa 1988-1998)

Con la seconda generazione inizia la diffusione di massa della telefonia mobile. La disponibilità della tecnologia, le necessità degli utenti e i notevoli investimenti effettuati per la costruzione di una rete cellulare capillare avviano un circolo virtuoso che determina una crescita esplosiva del mercato, soprattutto in Giappone e in Europa. La densità delle nuove reti cellulari permette di usare batterie molto più piccole, e i telefoni diventano tascabili, assumendo la caratteristica forma detta candybar.[10]  I costi dei device si riducono sostanzialmente, anche se le tariffe (a consumo) sono alte.  Le tecnologie per la trasmissione sono varie, ma prevale lo standard GSM, promosso soprattutto in Europa. Nascono gli operatori di telefonia mobile e inizia una radicale trasformazione dell’industria delle telecomunicazioni.

In questa fase ci si rende conto che i telefoni possono servire non solo per telefonare, anche se i prodotti sul mercato offrono ancora funzioni aggiuntive molto semplici: sms (dal 1993), orologio, sveglia, rubrica, calcolatrice, giochi, suonerie. Gli sms, inizialmente concepiti per inviare messaggi di servizio, hanno un enorme e inaspettato successo, anche a causa dei bassi (o nulli) costi applicati dagli operatori. Gli schermi sono piccoli e monocromatici, le tastiere hanno 12 tasti. Un esempio è il Nokia 5110, prodotto tra il 1998 e il 2001, uno dei telefoni più popolari dell’epoca. (Figura 21b). 

·       Generazione 2.5 (2.5G, circa 1998-2008)

Questa generazione può essere considerata di transizione.  La tecnologia di comunicazione evolve, per permettere al cellulare di trasmettere e ricevere dati a media velocità (es.: GPRS).  Il cellulare si arricchisce di una varietà di funzioni e servizi, e integra una fotocamera, in conseguenza dell’evoluzione della fotografia digitale. E’ possibile inviare e ricevere immagini (mms), installare suonerie, giochi e applicazioni software di vario tipo. È possibile collegarsi a internet per accedere alla posta elettronica e al Web. Internet si apre all’accesso mobile, anche se, in questa fase, l’utilizzo resta molto limitato, soprattutto per l’inadeguatezza degli apparati (che hanno schermi troppo piccoli e tastiere inadatte) e del numero ancora limitato di siti predisposti a un accesso mobile.  Un esempio tipico è il Motorola V3 RAZR (Figura 21c), dalla caratteristica forma a conchiglia (clamshell, detta anche flip). Esso, prodotto in oltre 100 milioni di esemplari, è uno dei cellulari più venduti di tutti i tempi.  I prodotti di questa generazione sono numerosissimi, di forma diversa (prevalentemente candybar e clamshell).

·       Terza generazione (3G, dal 2002)

Questa è l’era dei cosiddetti smartphone, che appaiono sul mercato poco dopo gli apparecchi della seconda generazione, e convivono con essi. Anche se non esiste una definizione standard di smartphone, possiamo dire che esso offre tutte le funzioni dei cellulari delle generazioni precedenti, ma possiede di solito uno schermo più grande, una tastiera alfanumerica (per esempio QWERTY) o uno stilo per scrivere su una tastiera virtuale, una connettività alla rete a banda larga resa possibile da protocolli di comunicazione di terza generazione, a volte una connettività Wi-Fi. Il telefono è dotato di sistema operativo e assomiglia sempre più a un piccolo computer portatile. Integra le funzioni caratteristiche dei vecchi PDA (agenda personale, appunti, ecc.), che in pratica scompaiono dal mercato.  La tecnologia di comunicazione permette l’accesso a internet a velocità abbastanza elevata. Le funzioni sono molto varie: telefonia, sms, email, accesso al Web, fotocamera, multi-media messaging (mms) per inviare e ricevere foto o video, connettività bluetooth, giochi, player MP3, radio, GPS, con possibilità di installare una grande varietà di applicazioni anche prodotte da terze parti.

Un precursore importante di questa categoria di apparati fu il 9000 Communicator della Nokia, una sorta di ibrido fra un telefono e un piccolo laptop, sul mercato dal 1996 (Figura 21c). Ma la varietà delle forme proposte è molto alta, i costruttori sono alla ricerca di una forma che il mercato accolga con favore. Oltre alla forma a conchiglia (come il Treo e lo stesso Communicator) compaiono apparecchi a brick (mattoncino), come il Blackberry, a slider (in cui la tastiera, di notevoli dimensioni, non si ripiega sul video, come nelle forme nella conchiglia, ma “scorre” sotto di esso). La forma di molti di questi apparecchi permette di utilizzare la posta elettronica in modo abbastanza agevole. L’uso mobile della email quindi cresce considerevolmente. Tuttavia, gli smartphone conquistano solo una piccola parte del mercato della telefonia mobile. Apparecchi più semplici e meno costosi continuano ad avere enorme diffusione e, come vedremo fra poco, a diffondersi con straordinaria rapidità anche nei paesi più poveri.

·       Il mobile

Nel giugno del 2007, la Apple lancia sul mercato l’iPhone, un apparato che modifica profondamente la concezione degli apparati mobili, e ridefinisce in modo significativo questa industria. La forma, a brick (Figura 21e) è quasi interamente occupata da uno schermo multi-touch, di buona risoluzione (320 x 480 pixel), che permette di controllare le funzioni con una varietà di gesti delle dita, con la pressione di pulsanti (vedi la Figura 21 nel Capitolo 8) e con una tastiera virtuale (vedi la Figura 17 nel Capitolo 10). Nonostante le dimensioni limitate, lo strumento integra un’ampia varietà di tecnologie: fotocamera e player multimediale, GPS, mail e browser web, wi-fi, bussola digitale, input vocale e una varietà di sensori, di movimento (accelerometro), di prossimità, di luce ambientale. Anche se la maggior parte di queste tecnologie erano disponibili da tempo, esse sono assemblate in un modo del tutto innovativo. La risposta del mercato all’iPhone è enormemente favorevole: dopo un anno e mezzo dal lancio, le vendite assommano a 17 milioni di unità. E gli altri produttori annunciano ben presto prodotti ad esso ispirati. Finalmente, l’accesso mobile a Internet è una realtà.

Tre anni dopo l’annuncio dell’iPhone, lo store online della Apple proponeva più di 100.000 applicazioni software utilizzabili da questo device. Nello stesso periodo, gli utenti avevano effettuato, dallo stesso store, tre miliardi di download di applicazioni software.

Dal punto di vista dell’interazione uomo macchina, l’iPhone può essere considerato il primo device che incarna compiutamente il paradigma che abbiamo chiamato con il termine inglese mobile. Il mobile non è un telefono e non è un computer: è un oggetto del tutto nuovo, uno strumento insieme di comunicazione, d’informazione e d’interazione con l’ambiente. È pensato per essere sempre connesso alla rete, e destinato a un uso strettamente personale, quasi “intimo” da parte dell’utente, che lo porta con sé in ogni circostanza, senza spegnerlo mai. Con il suo sistema di sensori, il mobile è in grado di raccogliere automaticamente informazioni su se stesso, sull’utente e sull’ambiente, e di utilizzarle per fornire a chi lo usa informazioni contestualizzate. Questi nuovi “sensi” lo arricchiscono di potenzialità funzionali vastissime, ancora tutte da esplorare: servizi geo-referenziati (location based services) che, basati sul GPS, offrono all’utente informazioni sull’ambiente circostante;  applicazioni di augmented reality che utilizzano la fotocamera ad alta risoluzione come “occhio” sulla realtà circostante, che viene integrata con informazioni specifiche, reperite in tempo reale dalla rete; servizi di identificazione di oggetti circostanti (per esempio attraverso lettura di tag RFID), e di interazione con gli stessi, per esempio per effettuare pagamenti, per segnalare la propria presenza, e così via.

ALZATI E CAMMINA!

 

Al momento della stesura di queste pagine, per il mobile computing non si è ancora consolidato un paradigma d’interazione ben riconoscibile al di là delle differenze fra i diversi dispositivi. Questo è dovuto a diversi fattori, fra i quali la diversità degli utenti cui questi prodotti si rivolgono. Il telefono cellulare – e la sua evoluzione – è lo strumento personale per eccellenza, e come tale deve riflettere gusti, esigenze, abilità, personalità del singolo utente. Tuttavia, la situazione è in evoluzione molto rapida, e la linea di tendenza sembra ormai abbastanza chiara. Il mobile, con la sua ricchezza funzionale, non deve essere considerato un gadget per appassionati di tecnologia. Con l’inevitabile abbattimento di costi prodotto dalla crescita del mercato e dalla concorrenza, è presumibile che la sua diffusione sia molto vasta, e che si avvii il ciclo virtuoso che abbiamo già visto per i personal computer e per i cellulari tradizionali. Già oggi il telefono cellulare, e non il personal computer è la tecnologia più diffusa. Secondo stime delle Nazioni Unite, nel 2007 sono stati venduti, nel pianeta, 1 miliardo di cellulari, e “solo” 400 milioni di PC. Secondo la stessa fonte, nel 2009 il 90% della popolazione del pianeta ha accesso alla telefonia mobile, eventualmente attraverso amici o parenti.

Il cellulare Nokia 1100 (Figura 22), progettato appositamente per i paesi in via di sviluppo e messo sul mercato nel 2003, con oltre 200 milioni di esemplari è stato il telefono e il prodotto di elettronica di consumo più venduto di tutti i tempi.[11]  Si tratta di un modello GSM di costo contenuto e funzionalmente poco sofisticato: sms, sveglia, calcolatrice, lista di contatti, suonerie, giochi, torcia elettrica, protezione anti polvere e impugnatura antiscivolo per ambienti umidi.

C:\Users\rpolillo\Desktop\FACILEPC\Nokia1100.jpg

Figura 22.       Il cellulare più diffuso (Nokia 1100)

 

L’uso del cellulare è comunque ancora in fortissima crescita. Secondo stime dell’International Telecommunication Union, nel 2002 il numero di abbonamenti di telefonia mobile (includendo nel conteggio le schede prepagate) ha superato, nel mondo, quello degli abbonamenti a un telefono fisso. Sempre nel 2002, il numero degli abbonati a un operatore di telefonia mobile erano il 19% della popolazione mondiale; nel 2008 erano saliti al 61%.  Al confronto, gli utenti Internet sono molto meno: secondo stime della stessa ITU, nel 2008, erano “solo” il 23% della popolazione mondiale. [12]  

Non c’è dubbio che il cellulare, dalla seconda metà degli anni ’90, ha completamente modificato le abitudini comunicative della popolazione dell’intero pianeta (Figura 23). I nuovi paradigmi d’interazione che avranno la massima diffusione nasceranno dagli apparati mobili, e non dai PC.

Con l’accesso mobile alla rete, al Web tradizionale si affianca il mobile Web. Il primo è fatto di quei siti e servizi ai quali si accede dal browser del proprio computer (desktop, laptop o netbook), stando seduti. Il secondo è composto da quei siti e servizi che si utilizzano in mobilità, in qualunque istante e luogo, spesso stando in piedi. Dal punto di vista tecnico, il Web è sostanzialmente uno solo. Ma dal punto di vista dei paradigmi d’interazione, il desktop Web e il mobile Web sono due media completamente differenti.

 

 

GenteCheTelefona.jpg

Figura 23.       Mobilità

 

Il  social computing

Finora abbiamo posto la nostra attenzione sul singolo utente, che interagisce con un sistema di vario tipo, un terminale connesso a una macchina condivisa, oppure un dispositivo personale. Questa visione non riflette bene la grande varietà dei sistemi interattivi, e trascura un insieme di applicazioni che, col tempo, hanno acquisito un ruolo molto importante nella nostra vita quotidiana. Infatti, i computer possono essere anche utilizzati efficacemente come strumenti d’intermediazione e facilitazione della comunicazione fra persone. Già nel 1968, J.C.R.Licklider, un altro grande pioniere della HCI, aveva previsto che “entro pochi anni, gli uomini potranno comunicare più efficacemente attraverso una macchina che di persona”.[13] Da allora, enormi progressi sono stati compiuti, e specifiche aree della disciplina della HCI si sono grandemente sviluppate, come per esempio l’area del Computer Supported Cooperative Work (CSCW), che si occupa di come le attività cooperative effettuate da gruppi di persone possono essere supportate e coordinate dai computer, includendo lo studio degli effetti psicologici, sociali e organizzativi di questo uso dei sistemi.

All’informatica individuale nata con i primi personal computer è subentrata pertanto l’informatica sociale: agli strumenti per l’individuo si affiancano strumenti per i gruppi e per le comunità, sempre più sofisticati. Facendo riferimento agli esempi della Figura 2 nel Capitolo 1, possiamo identificare i sistemi personali, che vengono utilizzati normalmente sempre dalla stessa persona (l’iPhone), i sistemi mono-utente, che vengono usati da una sola persona alla volta (il robot da cucina), e i sistemi multi-utente, usati contemporaneamente da più persone  (il cruscotto dell’aereo, utilizzato dal pilota e dal co-pilota, oppure quei sistemi in cui diverse persone possono condividere lo stesso ambiente virtuale). A questi tipi di sistemi si aggiungono, quindi, i sistemi sociali, che non interagiscono solo con singoli individui in un’interazione uno-a-molti (come il cruscotto di Figura 4a, Capitolo, ma sono soprattutto strumenti d’intermediazione fra interlocutori spazialmente e, spesso, temporalmente distanti. Essi permettono loro di comunicare e di collaborare in compiti complessi: sono strumenti d’intermediazione intelligente, che – sempre più spesso – entrano nel merito della conversazione, la supportano e la facilitano. Con la diffusione di Internet, questi sistemi possono a volte soddisfare le esigenze di comunicazione e di socializzazione d’intere collettività di grandi dimensioni, in qualche caso composte da diecine o centinaia di milioni d’individui.

I sistemi che realizzano tale intermediazione assumono varie forme e si appoggiano a tecnologie diverse, che evolvono continuamente in modo molto rapido: dai siti di social networking di vario tipo (a partire da Facebook, sviluppatosi in modo impressionante a partire dalla sua nascita nel 2004), alle piattaforme di blogging, fino alle applicazioni che supportano il lavoro cooperativo in rete di gruppi più meno ampi: wiki, online office suite, e così via.

Uno studio riferito alla fine del 2008[14] stimava che due terzi degli utenti di Internet visitassero blog o siti di social networking, totalizzando quasi il 10% del tempo globale speso in rete. Queste percentuali sono in continua crescita. L’enorme quantità di tempo impiegato nell’accesso a siti che permettono alle persone di interagire all’interno di comunità di varia dimensione e tipologia sta modificando i comportamenti dell’umanità. Le modalità d’interazione e di comunicazione fra le persone, già profondamente modificato con la diffusione della telefonia mobile, della posta elettronica e degli sms, assume continuamente nuove forme, via via che nuovi strumenti si diffondono in rete. Si consolida così un nuovo paradigma d’interazione, che possiamo chiamare social computing. Non più interazione fra più utenti e un sistema, ma interazione fra più utenti mediata da un sistema.

Dal punto di vista dell’interazione con l’utente, queste applicazioni non utilizzano dispositivi specifici, ma normali PC o netbook connessi in rete e, sempre più spesso, anche dispositivi che consentano l’accesso in mobilità. Al di là delle inevitabili differenze, la gran parte di questi sistemi è accomunata dalla presenza di profili personali, più o meno dettagliati, attraverso i quali ogni utente si mostra agli altri. I profili possono essere pubblici, o riservati a un sottoinsieme di utenti considerati amici, o agli amici di questi, secondo livelli di privacy definiti dall’autore di ciascun profilo. Ciò caratterizza fortemente questi sistemi, i quali possono essere considerati, a tutti gli effetti, delle “reti di persone” (reti sociali, nel senso attribuito a questo termine dagli studiosi di sociologia), di fronte alle quali le caratteristiche funzionali che li differenziano passano inevitabilmente in secondo piano (Figura 24).

Figura 24.       Mappatura di una social network in rete (da: http://www.fmsasg.com/SocialNetworkAnalysis/)

 

Tra queste comunità di utenti, la rete assume sempre più un ruolo attivo e intelligente: non più semplice intermediario per il trasporto o l’archiviazione delle informazioni, ma interlocutore a sua volta, capace di collaborare in compiti via via sempre più complessi. Scriveva Tim Berners-Lee, l’inventore del Web, ancora nel 2001:

Ho fatto un sogno riguardante il Web… ed è un sogno diviso in due parti. Nella prima parte, il Web diventa un mezzo di gran lunga più potente per favorire la collaborazione tra i popoli. Ho sempre immaginato lo spazio dell'informazione come una cosa a cui tutti abbiano accesso immediato e intuitivo, non solo per navigare ma anche per creare. [...] Inoltre, il sogno della comunicazione diretta attraverso il sapere condiviso dev'essere possibile per gruppi di qualsiasi dimensione, gruppi che potranno interagire elettronicamente con la medesima facilità che facendolo di persona. Nella seconda parte del sogno, la collaborazione si allarga ai computer. Le macchine diventano capaci di analizzare tutti i dati sul Web, il contenuto, i link e le transazioni tra persone e computer. La "Rete Semantica" che dovrebbe renderlo possibile deve ancora nascere, ma quando l'avremo i meccanismi quotidiani di commercio, burocrazia e vita saranno gestiti da macchine che parleranno a macchine, lasciando che gli uomini pensino soltanto a fornire l'ispirazione e l'intuito. Finalmente, si materializzeranno quegli "agenti" intelligenti sognati per decenni. Questo Web comprensibile alle macchine si concretizzerà introducendo una serie di progressi tecnici e di adeguamenti sociali attualmente in fase di sviluppo.[15]

 

L’intelligenza ambientale

L’evoluzione della rete procede in diverse direzioni. Fra quelle più importanti, per chi si occupa delle problematiche della Human Computer Interaction, vi è la tendenza verso la cosiddetta “intelligenza ambientale” (ambient intelligence). Con questo termine ci si riferisce alla progettazione di ambienti sensibili alla presenza delle persone, e che possono interagire con queste in vari modi. In sostanza, uno spazio popolato di oggetti intelligenti e fra loro interconnessi, che offrono agli esseri umani funzionalità utili per comunicare, controllare l’ambiente e accedere all’informazione.

Si tratta di una visione del futuro dell’elettronica di consumo, delle telecomunicazioni e dell’informatica sviluppata dalla fine degli anni ’90. Secondo questa visione, il mondo si popolerà di dispositivi che interagiscono fra loro e cooperano per supportare le persone nelle loro attività quotidiane. Questi dispositivi sono dotati d’intelligenza e possono accedere a dati e informazioni disponibili nella rete, alla quale sono sempre connessi. Via via che questi dispositivi diventano più piccoli e più integrati nell’ambiente fisico, essi scompaiono dalla nostra vista, e ciò che rimane percepibile è soltanto l’interfaccia d’uso. Come scriveva Donald Norman nel suo libro Il computer invisibile (1998):

[…] una generazione di tecnologie personali in cui la tecnologia scompare nello strumento, attivando valide funzioni ma senza essere visibile. La generazione in cui il computer scompare all’interno di strumenti specializzati a seconda dell’attività. La generazione del computer invisibile.[16]

Il paradigma dell’intelligenza ambientale si fonda su tecnologie che sono:

       embedded: i dispositivi sono fra loro interconnessi e integrati nell’ambiente;

       context aware: i dispositivi sono in grado di percepire informazioni provenienti dall’ambiente in cui si trovano, e di interpretarle in base al contesto;

       personalizzate: i dispositivi possono essere configurati in relazione alle specifiche necessità degli utenti;

       adattive: i dispositivi sono in grado di apprendere durante il loro uso, e modificare di conseguenza il loro comportamento;

       anticipatorie: i dispositivi possono anticipare i desideri e le necessità dell’utente.

 

Gli scenari d’uso che possono essere immaginati sono molto diversi. Riportiamo, come esempio, lo scenario riportato da Wikipedia alla voce “Ambient intelligence”: [17]

Ellen rientra a casa dopo una lunga giornata di lavoro. Alla porta d’ingresso viene riconosciuta dalla telecamera intelligente di sorveglianza, che disattiva l’allarme e apre la porta. Entrata in casa, la mappa della famiglia indica che suo marito Peter si trova a una fiera d’arte a Parigi, e che la loro figlia Charlotte è nella sua stanza, a giocare con uno schermo interattivo. Al servizio di sorveglianza remota per i bambini viene notificato che Ellen è a casa, quindi la connessione online viene disattivata. Quando entra in cucina, il quadro dei messaggi si accende per segnalare che ci sono nuovi messaggi. La lista della spesa che era stata predisposta richiede una conferma per essere inviata al supermarket per gli acquisti. C’è anche un messaggio che la avverte che il sistema di casa ha trovato nuove informazioni nel Web semantico su delle villette economiche con vista mare per le vacanze in Spagna. Ellen si connette brevemente con la stanza di Charlotte per salutarla, e la sua immagine video compare automaticamente sullo schermo piatto che Charlotte sta utilizzando. Quindi  si connette con Peter alla fiera d’arte di Parigi. Egli le mostra, con la fotocamera connessa alle sue lenti a contatto, alcune sculture che vorrebbe comprare, ed Ellen approva la scelta. Nel frattempo seleziona uno dei menu visualizzati, che le indica che cosa può preparare con i cibi presenti in dispensa e nel frigorifero. Poi accende il televisore sul canale on-demand per vedere il programma con le ultime notizie. Dopo avere dato il comando “Seguimi”, si sposta in camera da letto. Il programma viene allora visualizzato automaticamente sul monitor piatto in camera da letto, dove va per fare della ginnastica personalizzata. Più tardi, dopo il rientro di Peter, chiacchierano con un amico in soggiorno, con l’illuminazione personalizzata. Guardano il presentatore virtuale che li informa sui programmi e sulle informazioni che sono state memorizzate, nella giornata, nel loro server di casa.

Chi si occupa di tecnologia, e ne esplora le possibilità e le innovazioni, subisce spesso il fascino di questi scenari, senza soffermarsi a riflettere in modo adeguato sulle loro implicazioni. Chi si occupa di human-computer interaction, e in particolar modo il progettista dei sistemi interattivi, ha tuttavia il dovere di interrogarsi costantemente sulla desiderabilità dei prodotti che propone o progetta. Questa va considerata non esclusivamente dal punto di vista dell’utente del prodotto, ma anche dal punto di vista complessivo della società di cui questo utente fa parte.  Chi scrive ritiene che la comunità della human computer interaction stia ancora affrontando in modo troppo limitato queste problematiche. Nonostante il dichiarato interesse per il miglioramento dell’ambiente e per i valori della sostenibilità, è innegabile che, oggi, la comunità internazionale della HCI sia ancora in prevalenza, assorbita da problematiche che riguardano il futuro di una piccola parte dell’umanità. Adottando un punto di vista più globale, la prospettiva è molto diversa, e ciò permette anche di riflettere meglio sui valori impliciti nelle diverse possibili visioni del futuro, e sulle conseguenti priorità, come, per esempio, tra i vari ambiti della ricerca svolta dalle Università.

Secondo dati pubblicati nel 2008 dalla Banca Mondiale, nel 2005, su circa 6,5 miliardi di abitanti del pianeta, l’80% vive con meno di 10 dollari al giorno; il 49% con meno di 2,5 dollari al giorno e quasi il 14% con meno di un dollaro al giorno. La situazione all’uscita di questo libro, un quinquennio dopo, com’è noto non è migliorata, e la “distanza” fra ricchi e poveri è in continuo aumento. In questo contesto, scenari come quello riportato qui sopra generano dubbi e riflessioni. Fra gli infiniti possibili scenari d’uso di una stessa tecnologia, a quali dobbiamo assegnare le nostre priorità? Quali dobbiamo proporre al mercato, che ne sancirà, in ultima analisi, il successo o il fallimento? La responsabilità di queste scelte è di vasta portata perché, come vedremo nei prossimi capitoli, ogni tecnologia interagisce in modo profondo con i suoi utilizzatori, e ne cambia i comportamenti. I paradigmi d’interazione con le tecnologie di oggi sono, come si comprende facilmente, strettamente legati ai modelli dei nostri comportamenti quotidiani, nel lavoro e nel tempo libero.   

Ripasso ed esercizi

1.     Discuti i rapporti fra tecnologie e paradigmi d’interazione.

2.     Quali sono le principali differenze fra la modalità di interazione mediante una teletype e un terminale tradizionale?

3.     Che cosa s’intende per paradigma di manipolazione diretta?

4.     Che cosa si intende con la sigla WIMP?

5.     Che cosa caratterizza il paradigma “point & clic”?

6.     Descrivi le differenze fra il nomadic computing e il mobile computing.

7.     Quali sono, secondo la tua esperienza, le caratteristiche che accomunano le social application?

8.     Che cosa si intende per intelligenza ambientale?

Approfondimenti e ricerche

1.     La filosofia del progetto del primo sistema basato sulla metafora della scrivania, realizzato presso i laboratori dello Xerox PARC alla fine degli anni ’70, è riassunta nel classico articolo di Smith, Irby, Kimball, Verplank, e Harslem, Designing the Star User Interface, pubblicato sulla rivista  Byte nel 1982, e reperibile in rete in numerosi siti. Leggi questo articolo e riassumi le principali analogie e differenze fra la filosofia di questo sistema e quella del sistema desktop da te usato.

2.     Un interessante articolo sulla storia del mouse si trova in http://weburbanist.com/2009/04/05/evolution-of-the-mouse-classic-to-cutting-edge/

3.     Una interessante storia dell’ipertesto, dalle origini del concetto al Web, si trova in http://www2.polito.it/didattica/polymath/ICT/Htmls/Argomenti/Appunti/StoriaIpertesto/StoriaIpertesto.htm.

4.     Leggi il classico articolo sul Dynabook: A. Kay, A. Goldberg, Personal Dynamic Media, in Computer, vol. 10, no. 3, pp. 31-41, Mar. 1977, anche disponibile in rete in  http://www.newmediareader.com/book_samples/nmr-26-kay.pdf. Confronta l’idea del Dynabook con le tecnologie disponibili oggi: che rapporto ha il personal dynamic medium concepito da Alan Kay con le internet appliance disponibili oggi? Suggerimento: consulta l’interessante lavoro di J.W.Maxwell, Tracing the Dynabook: As a Study of Technocultural Transformations, Tesi di PhD, University of British Columbia, Novembre 2006, reperibile in rete in http://thinkubator.ccsp.sfu.ca/Dynabook/Maxwell-DynabookFinal.pdf, e in particolare il Capitolo  The Dynabook today: how far have we come. Questa tesi è stata pubblicata nel 2006: negli anni trascorsi da allora, la situazione è cambiata?

5.     Il paradigma della manipolazione diretta è ben lontano dall’avere mostrato tutte le sue potenzialità. La rappresentazione in tre dimensioni degli oggetti manipolati e gli schermi multi-touch offrono possibilità ancora in buona parte da esplorare. Esplora la rete alla ricerca di video dimostrativi interessanti su questo tema. A puro titolo di esempio, puoi iniziare su YouTube, con video sul sistema BumpTop, su applicazioni di Microsoft Surface, sull’interfaccia multi-touch a GoogleMap.

6.     L’articolo di S.Sanna, Mobile computing, in A.Soro (ed.), Human Computer Interaction – Fondamenti e prospettive, ed.Polimetrica, 2009, pagg.253-288 (disponibile anche in rete) contiene un’interessante rassegna sulle problematiche dell’interfaccia utente dei dispositivi per il mobile computing.

7.     Un’autrice che, da diversi anni, ha studiato i siti di social network è Danah Boyd. Tra i numerosi saggi da lei scritti (reperibili in http://www.danah.org/papers), puoi approfondire queste tematiche, per esempio, in Social Network Sites: Definition, History and Scholarship, scritto con N.Ellison (2007), o in Why Youth (Hearth) Social Network Sites: The Role of Networked Publics in Teenage Social Life (2007), in cui l’autrice analizza la nozione di spazi pubblici mediati dalla tecnologia.

 

<< Torna al capitolo 1 | Vai al capitolo 3 >>


[1] Il nome è stato coniato in B.Shneiderman, Direct manipulation: a step beyond programming languages, in IEEE Computer 16(8) (agosto 1983), pagg.57-69.

[2] Dati da http://www.netcraft.com , dicembre 2009. Si veda anche http://www.gandalf.it per statistiche aggiornate sul Web.

[3] Il termine cloud, inglese per “nuvola”, deriva dal fatto che, nelle rappresentazioni grafiche, la rete internet viene molto spesso rappresentata a forma di nuvola.

[4] A. Kay, A. Goldberg, Personal Dynamic Media, in Computer, vol. 10, no. 3, pp. 31-41, Mar. 1977, anche disponibile in rete in  http://www.newmediareader.com/book_samples/nmr-26-kay.pdf.

[5] ibid.

[6] Cfr. http://www.isuppli.com/NewsDetail.aspx?ID=19823.

[7] Il mouse è stato uno dei device più di successo nella storia dell’informatica. La sola Logitech ha prodotto, a tutto il 2008, più di un miliardo di mouse, di diversi modelli.

 

[9] Cfr. Brian Fling, Mobile Design and Development, Ed. O’Reilly, 2009.

[10] Il termine inglese Candybar denota i dolci industriali a forma di barretta – spesso biscotti ricoperti di  cioccolato.

[11] Per una classifica dei modelli di cellulari più venduti si veda http://en.wikipedia.org/wiki/List_of_best-selling_mobile_phones.

[12] Cfr. International Telecommunication Union, Measuring the Information Society, The ICT Development Index, 2009, http://www.itu.int/ITU-D/ict/publications/idi/2009/material/IDI2009_w5.pdf.

[13] J.C.R.Licklider, The Computer as a Communication Device, in Science & Technology, aprile 1968, disponibile anche in rete.

[14] Nielsen, “Global faces and networked places”, http://blog.nielsen.com/nielsenwire/wp-content/uploads/2009/03/nielsen_globalfaces_mar09.pdf, marzo 2009

[15] Tim Berners-Lee, L’architettura del nuovo Web, Feltrinelli, 2001.

[16] Op.cit., nella edizione italiana di Apogeo, 2000, pag. 271.

[17] Tratto da http://en.wikipedia.org/wiki/Ambient_intelligence , 16 gennaio 2010 (nostra traduzione dall’inglese).