Aza Raskin, Firefox e la progettazione in pubblico

Aza Raskin, da qualche tempo responsabile della user experience ai Mozilla Labs, sta progettando nuove funzionalità per i tab di Firefox, e lo sta facendo in diretta.

In pratica, vuole ridisegnare, come già hanno fatto Opera, Safari, Chrome e Explorer 8, la pagina che si vede quando apriamo una nuova scheda nel browser, offrendo opzioni e azioni comuni invece di uno sfondo bianco. Ma lo fa discutendo le proposte in pubblico sul blog e addirittura postando su Twitter le ultime novità in diretta.

Una nuova tendenza nel webdesign (già inaugurata da alcuni con il redesign “live” dei propri siti)? Oramai pare che tutto sia o voglia essere open, anche la progettazione, non solo il codice sorgente. E i test con utenti sono sostituiti, ai Mozilla Labs, dall’esperienza dei tester volontari attivati proprio dal blog. Gratis.

Non è detto che questa sia sempre la soluzione migliore (soprattutto quando non si ha la possibilità di osservare l’utente commettere errori e chiedere i motivi delle incomprensioni, cose utilissime anche per casi singoli). Ma certamente aiuta a creare coinvolgimento, chiacchiericcio, comunicazione, che per un progetto open è sempre una manna. Soprattutto se la cosa che si sta progettando è già presente sui prodotti della concorrenza…

Ma le aziende, che non sono fondazioni, avranno mai il coraggio di aprire la progettazione ai commenti degli utenti? E quali sono i pro e i contro di queste scelte? Certamente è piuttosto difficile proporre ai propri clienti una progettazione open. Ma se, dopo il periodo dei blog aziendali, iniziasse il periodo dei progetti aziendali in pubblico? Se avete esperienze o conoscenze di progetti aperti al contributo – incluse le critiche… – del pubblico, fatecele conoscere. Ne parleremo.

(E nel frattempo non possiamo non segnalare questa riflessione di Alex Faaborg sui cosiddetti scudi cognitivi, cioè il modo in cui le interfacce possono fare notifiche di livello d’importanza variabile all’utente senza fargli perdere il flusso d’azione; ha molto a che fare con la percepibilità, le affordance e anche un po’ con la progressive disclosure; è troppo lungo per occuparsene qui ora e semmai ci torneremo; ma certo che lo “scudo cognitivo” ci mancava: quasi meglio dell’alabarda spaziale).

Le home-page dei siti sono troppo pesanti?

Le home page dei blog stanno diventando sempre più grosse e pesanti. La media del peso delle pagine dei primi 100 blog elencati su Technorati è addirittura di 934KB, e il 35% supera 1MB.

Questo è l’effetto di pagine sempre più lunghe (ormai molti blog mantengono in home page decine di messaggi) con molte immagini e script. Le immagini determinano il 61,3% del peso totale, mentre gli script il 17,2%. Gli script sono ormai irrinunciabili, spesso incorporati nei template di molti blog-engine, e in effetti consentono di migliorare l’interazione, ma solo se usati bene.

Rimane il fatto che persino utenti con banda larga (non larghissima) a 256kbps impiegherebbero 33 secondi a caricare una home page di 1MB, mentre gli utenti del modem telefonico aspetterebbero addirittura due minuti e mezzo! Ricordiamo che solo il 17% dei nuclei familiari in Italia utilizza la banda larga secondo i dati europei più recenti a nostra disposizione.

L’istituto Pingdom che ha eseguito la ricerca ad inizio novembre 2008 grazie al nuovo tool gratuito da essi così promosso, suggerisce che i blogger dovrebbero ridurre sia il numero che la dimensione delle immagini nei loro post, almeno quando sono in home page. Il numero medio di immagini è di 63, ma con grandi variabilità (alcuni ne hanno solo 10, altri superano le 100). Lo stesso dicasi per gli script: sono utili, ma 9 in media per pagina sembrano troppi: davvero tutti necessari? Pesano più dell’html stesso (che incide solo per il 15% del peso totale di una pagina).

Siamo ben distanti dalle raccomandazioni dell’usabilità di rimanere, specialmente per la home page, all’interno dei 50KB complessivi circa. E tuttavia questi siti continuano ad avere successo, cioè ad essere molto visitati. Così come altri siti che non sono blog ma che hanno gli stessi problemi. Le home page dei quotidiani online, ad esempio, raggiungono pesi simili e rimangono – a detta dei servizi di rilevamento – comunque fra i più visti. Cos’è che non torna?

Perché i siti pesanti hanno comunque successo?

Nel valutare l’apparente contraddizione fra il peso eccessivo delle pagine e il loro apparente successo, dobbiamo considerare diversi fattori, alcuni dei quali già discussi in questo vecchio articolo su usabile.it.

  1. Gli utenti sono molto più tolleranti di quanto non sembri, soprattutto se percepiscono una ragione per esserlo. In particolare, molte ricerche indicano che il tempo di attesa adeguato per una pagina web dipende dal compito (se si devono inserire dati si è meno tolleranti rispetto alla navigazione libera, per esempio).
  2. In compiti di navigazione web alcuni utenti possono giudicare accettabile anche un tempo di attesa fino a 39 secondi, se la pagina adotta un caricamento di tipo incrementale. Cioè se mostra alcune parti della pagina che si caricano prima di altre. Se la pagina si dimostra “in lavoro”, non ferma, allora si sarà disposti ad attendere di più.
  3. Molti dei siti popolari vengono visitati spesso, con la conseguenza che gli utenti mantengono in cache almeno alcuni dei file utilizzati (presumibilmente proprio i javascript e parte delle immagini che così tanto contribuiscono ad aumentare il peso delle pagine).
  4. Per quanto ridotta sia la penetrazione della banda larga in Italia, va considerato un dato che pochi sottolineano: la maggior parte del traffico web proviene proprio da connessioni a banda larga! Il che significa semplicemente che gli utenti con modem a 56kbps usano internet, sì, ma in modo qualitativamente diverso e quantitativamente ridotto rispetto a chi è dotato di una connessione a banda larga e, soprattutto, di tariffe flat.

Quest’ultimo dato è confermato più o meno direttamente anche dai report europei. Secondo il report 2008 della Commissione Europea sulla Società dell’informazione, il problema è ancora più ampio (ne ho parlato qualche mese fa su Apogeonline). Nei paesi con ampia penetrazione della banda larga circa l’80% degli utenti si connette regolarmente, contro il solo 51% dei paesi con bassa penetrazione. Le disparità sociali dunque si amplificano per effetto della scarsa penetrazione della banda larga.

In questo contesto fanno certamente riflettere le dichiarazioni di Franco Bernabé, amministratore delegato di Telecom:

Il problema dell’Italia non è quello di spingere su una nuova infrastruttura per la banda larga (…), il problema dell’Italia è che non c‘è domanda per la banda larga che già esiste

Alcuni sottolineano che questo sia un modo per sfilarsi da investimenti industriali onerosi, e può anche essere. Altri che la dichiarazione occulti le difficoltà tecniche che la banda larga ha ancora in larghe parti del paese (verissimo: a dispetto del fatto che le aree urbane sono cablate al livello dei più avanzati Paesi europei, quelle rurali scontano ritardi infrastrutturali al livello dei più arretrati). Ciò non toglie che il problema è reale, è già rilevato anche dai report europei e soprattutto che non riguarda solo l’Italia. Molti potrebbero usare la banda larga ma non lo fanno perché non ne percepiscono i vantaggi1. Ovviamente in Italia ha conseguenze più gravi perché siamo messi un po’ peggio rispetto alla media europea.

Perché il peso è ancora un fattore importante

Queste considerazioni significano dunque che i blog e in generale i siti non dovrebbero preoccuparsi di ridurre il peso delle proprie pagine? Neanche per idea. Le ricerche di cui abbiamo parlato nel nostro precedente articolo sottolineano anche che pagine con tempi di caricamento più lunghi hanno maggior probabilità di essere giudicate di cattiva qualità. La percezione di qualità del contenuto di una pagina dal caricamento lento è peggiore, a parità di contenuti, di una con il caricamento veloce. Questo dovrebbe e potrebbe cioè diventare un fattore competitivo soprattutto per siti giornalistici, che sulla credibilità dei contenuti fondano parte del proprio business.

L’ottimizzazione del peso rimane dunque un fattore importante, anche se è uno degli elementi di qualità di una pagina, non è né l’unico né in assoluto il più importante. In sintesi, contenuti e servizi di qualità sono ben tollerati in pagine abbastanza pesanti se offrono almeno un caricamento progressivo, anche perché la maggior parte degli utenti viene probabilmente da connessioni a banda larga. Tuttavia mantenere pagine pesanti è una politica rischiosa perché, oltre a escludere di fatto tutti gli utenti con connessioni lente, rischia di avere ripercussioni sulla qualità percepita dei contenuti.

Questo è particolarmente vero per siti poco conosciuti e la cui qualità non è stata ancora valutata positivamente: sono quelli che traggono maggior beneficio dal mantenere le pagine leggere.

1 Non è l’unica ragione. Altre sono per l’appunto la mancata disponibilità tecnica del servizio e i prezzi eccessivamente alti. ^

Facebook e la psicologia dei social network

Ha generato un certo dibattito l’incauta dichiarazione rilasciata ad AdnKronos dalla psicologa Paola Vinciguerra a proposito del “profilo tipico” dell’utente di Facebook, uno dei social network più diffusi. La Vinciguerra ha dichiarato in sostanza che Facebook

“ultimamente ha contagiato in particolare la fascia tra i 30 e i 40 anni, e non a caso: questo mondo virtuale è infatti vissuto come un antidoto al senso di vuoto e alla solitudine, che in questa fase della vita, fitta di bilanci, contagia anche i cosiddetti vincenti.”

In definitiva:

 “L’enorme sviluppo di Facebook è anche spia di un grosso problema di solitudine … Si è disperatamente in cerca di una realtà diversa, anche sentimentalmente, così si altera la verità.”

La conclusione – rinforzata anche dal parere dello psichiatra Tonino Cantelmi – che alcuni hanno tratto è che, insomma, su Facebook ci sarebbero soprattutto persone sole, infelici, non più giovanissime, che aspirino a farsi pubblicità e a cercare nuove conquiste. Un profilo piuttosto poco lusinghiero.

Psicologo che vai, metodo che trovi

Va detto che Vinciguerra e Cantelmi si occupano di disturbi d'ansia e di tecnodipendenze, dunque, probabilmente, se riferito alla minoranza di utenti che si trovano a vivere problemi con la tecnologia (tra il 5 e il 13 percento dei naviganti, secondo quanto riportato in quest'intervista audio di Antonio Sofi a Giulietta Capacchione), le loro dichiarazioni trovano un significato più preciso. Il problema è che l'articolo invece generalizzava, estendendo implicitamente la portata delle osservazioni.

Per questa ragione Stefano Bussolon e la medesima Giulietta Capacchione, entrambi colleghi psicologi (come peraltro la Vinciguerra), contestano il metodo e il merito delle dichiarazioni della Vinciguerra. Prima di tutto perché, se intese come descrizioni dell'utente tipico, sarebbero espresse senza dati a supporto (né da ricerche scientifiche, né da esperienze dirette, dato che un profilo della Vinciguerra su Facebook non risulterebbe). E poi perché una rapidissima analisi di una reperibilissima letteratura del settore dimostrerebbe ben altro.

In particolare, Bussolon cita alcune ricerche internazionali da cui risulterebbe che:

  1. L’unico tratto di personalità (del modello Big Five) che si correla con la presenza su Facebook è l’estroversione. Gli introversi vanno meno su Facebook, gli estroversi di più.
  2. Fra coloro che ci vanno, quelli che tendono ad avere più amici tendono anche ad avere un più alto livello di neuroticismo
  3. Gli studenti universitari usano FB soprattutto per mantenere relazioni che già hanno, piuttosto che per trovare nuove relazioni, con una leggera eccezione per le matricole
  4. Gli studenti con bassa autostima e senso di soddisfazione personale possono trarre maggior giovamento dall’uso dei social network per migliorare il capitale sociale
  5. L’appartenenza a gruppi – all’interno del social network – di impegno politico o sociale si correla con un’effettiva maggior attività del medesimo tipo fuori dalla rete

I limiti delle ricerche

Bisogna naturalmente ricordare che queste conclusioni non è detto si applichino all’Italia, e che comunque si riferiscono in particolare alla popolazione universitaria, perciò non è detto siano confermate con popolazioni differenti.

L’obiezione “geografica” va tenuta ben presente, perché, come questa semplice analisi di Fabio Giglietto dimostra, diversi social network sembrano conoscere diffusione differente a seconda dei Paesi. Sebbene non sia chiara la ragione, è possibile vi siano variabili culturali e sociali specifiche del Paese a favorire l’adozione dell'uno o dell’altro strumento. Naturalmente anche la differente strategia di promozione gioca un ruolo importante e tutto da valutare.

L’obiezione “universitaria” invece tiene conto del fatto che il periodo universitario è, nella vita di una persona, un periodo di grandi cambiamenti, speranze e nuove relazioni. Se vi è – come sembra dalle ricerche citate e contrariamente a quanto suggerito dalle dichiarazioni della Vinciguerra – una correlazione fra la vita reale e l’uso dei social network è ragionevole ipotizzare che quest’uso cambi a seconda delle fasi e delle esigenze della vita. Certo però questi risultati non supportano le affermazioni secondo le quali i più delusi e soli userebbero Facebook per compensare le proprie difficoltà sociali, ma, anzi, suggeriscono che Facebook sia uno strumento per mantenere e gestire il proprio capitale sociale, in particolare usato proprio dai più estroversi. Non dai timidi, insomma.

Ha dunque torto la Vinciguerra? Mah, dipende. Quando dice che "ultimamente" Facebook in Italia è stata presa d'assalto dai 30-40enni potrebbe anche dire una verità, per quel che ne sappiamo. Quando asserisce che questo sarebbe legato ad "un grosso problema di solitudine", invece, pare difficile trovare reale supporto alla tesi: sembra piuttosto un luogo comune. Farne un tratto generale che spieghi il social network non ha più senso del dire che l'enorme uso dell'email testimonia un medesimo problema di solitudine. Certamente, però, mi associo all'obiezione di Giulietta Capacchione e Stefano Bussolon circa la non rappresentatività delle opinioni della Vinciguerra per la categoria degli "psicologi", stigmatizzando il modo in cui la stampa ama generalizzare per semplicità il punto di vista di un professionista come rappresentativo di un gruppo.

Ma perché si usano i social network?

Spiegare la ragione per la quale molte persone usano i social network (quando esistono già altri strumenti di rete, come i forum, i blog, i newsgroup) è ovviamente impossibile senza una ricerca empirica, ma qualche ipotesi la si può comunque fare. Perché iscriversi ad un nuovo servizio data la facilità con la quale si può partecipare alla vita di rete in molti altri modi? Probabilmente ciò che caratterizza i social network rispetto agli altri strumenti non è tanto o solo la facilità di pubblicare o di trovare persone, ma quella di escludere. La vera funzione inedita dei social network infatti è quella di consentire di definire chi è nostro amico e rivolgersi solo a costoro. Non a tutti: tagliando così chi non si vuole partecipi alle nostre riflessioni o alle nostre attività in rete.

Uno dei problemi delle tradizionali forme di presenza online, infatti, è che sono generaliste. Un sito, un forum, sono visibili da chiunque. In alcune situazioni (o per alcune persone) questo non è desiderabile.

La forma di presenza online più simile ai social network è dunque probabilmente la mailing list: un luogo dove si parla con persone selezionate, non sempre in maniera pubblica. Gestire una mailing list non è triviale per chi non sia tecnologicamente avveduto. Inoltre le mailing list esistenti sono poco personali e poco personalizzabili: quando sono gestite da qualcun altro i membri non sono alla pari. I social network sembrano dunque aver fornito uno strumento di gestione e selezione dei contatti sulla base di affinità specifiche più semplice da usare e più ricco di una mailing list. Soprattutto fornendo uno strumento centrato sull’utente, dato che il punto di partenza dell'attività è il "profilo" che ogni partecipante si gestisce. Ognuno può decidere i propri contatti, comunicare solo con loro anziché con tutto il mondo. Ed essere trovato e contattato da persone interessate (cosa che con le tradizionali mailing list è meno probabile, dato che aumentano la visibilità del gestore, non dei partecipanti).

In una parola: il social network è uno strumento centrato sul partecipante che consente di gestire particolari tipi di relazioni significative decidendo chi escludere. Se serve a questo, è abbastanza ovvio che esso non sostituirà i blog pubblici, i wiki, i forum, e nemmeno le mailing list o i newsgroup. Si tratta di un tipo di strumento che serve semplicemente a cose diverse e che andrà a convivere con l'arsenale di strumenti di cui già ci gioviamo.

Sarà il tempo a dire se queste riflessioni rappresentano qualcosa di più di una mia ipotesi. In ogni caso è bene ricordare che non parlo a nome né degli psicologi né degli specialisti di usabilità: dati i tempi è già un bel punto di partenza.

E se Gmail ti impedisce di fare sciocchezze?

È capitato a tutti di inviare una mail per sbaglio. O della quale ci siamo subito dopo pentiti. La tastiera, soprattutto quando vi passiamo troppe ore al giorno, fa entrare a volte in uno strano stato di sovreccitazione. Poco tempo dopo non avremmo mai voluto mandare quella mail, ma il CTRL+Z non serve più.

Be’, ora Gmail, nella versione inglese, introduce una specie di tutore, un algoritmo che prova ad impedirvi di inviare mail delle quali potreste pentirvi. Come? Proponendovi dei calcoli matematici da risolvere prima di inviare la mail. Questo controllo, che si chiama Mail Goggles, se abilitato, è attivo di notte e nei week-end, ma il suo uso può essere esteso e regolato.

Ma questa è usabilità o qualcosa che sta tra l’agente intelligente e il paternalismo tecnologico? È giusto che un programma dubiti delle nostre capacità di giudizio? Secondo la prima legge della robotica di Asimov, forse sì. Un robot (ma estendiamolo pure ad un programma…) non può permettere che un utente riceva danno da un suo mancato intervento. E se le conseguenze di un invio affrettato ci possono danneggiare, allora è giusto che entri in azione…

Etica o fantascienza? O magari solo marketing (è una notizia che si scrive da sé, diciamo…)? In attesa di rifletterci meglio, si potrebbero almeno utilizzare i risultati dei calcoli presentati per un assessment delle capacità matematiche degli internauti in situazioni di stress lavorativo. E magari usarli come benchmark per ritarare i programmi scolastici. In fondo, se siamo arrivati a questo, perché mai porsi limiti?…

L’usabilità dei ponti

Dopo le polemiche sull’impossibilità di accesso da parte dei disabili, il nuovo ponte di Calatrava a Venezia si trova in mezzo ad una nuova contestazione: le persone cadono! Il Corriere di domenica 28 settembre sottolinea che questo avviene per effetto di almeno due scelte progettuali: gradini che raddoppiamo improvvisamente la pedata, ingannando il passo, e una riga trasversale necessaria per ragioni strutturali che inganna l’occhio.

Risultato: utenti definiti “distratti” finiscono gambe all’aria. Vi ricorda niente? Tempo fa avevamo parlato dell’usabilità delle piazze, citando persone che finiscono a osservare il cielo contro la loro volontà a causa di piani inclinati e materiali resi viscidi dall’umido e di piastrelle che saltano dopo pochi mesi dall’inaugurazione. E allora? Quelle che credevamo eccezioni dovute ad architetti poco esperti e disattenti all’usabilità si stanno rivelando pericolose abitudini nell’architettura contemporanea? Che ruolo ha l’utente, la sua comodità e la sua sicurezza, in progetti urbanisticamente impegnativi come piazze e ponti?

Occhio ai facili giudizi. Quella che sembra un’evidente mancanza va indagata meglio e posta a raffronto quantitativo con casi comparabili. Ad esempio: le cadute sul ponte di Calatrava sono significativamente superiori a quelle che si riscontrano in altri ponti simili? Il pronto soccorso di Venezia, unico che può avere dati attendibili in merito, infatti, minimizza, dicendo che problemi del genere accadono regolarmente in laguna. Migliaia di turisti al giorno e pochi inevitabili casi di cadute. Forse quelle di Calatrava fanno notizia per le stesse ragioni politiche per le quali dopo un’esposizione pubblica di un anno, il progetto è stato contestato – magari anche con buone ragioni – solo alla vigilia dell’inaugurazione. Se le cadute sono in media con quelle degli altri ponti – e questo va chiarito prima di qualsiasi giudizio – va posto un problema ancora diverso: è possibile che un’opera contemporanea non tenti di ridurre le cadute? In fondo le conoscenze ergonomiche e ingegneristiche dovrebbero essere progredite.

Questa seconda questione ha a che fare con due problemi:

  1. La difficoltà di fare test con utenti con artefatti fisici. Se un’interfaccia digitale può essere facilmente preparata e simulata anche senza scrivere il programma che la comanda, lo stesso non si può dire per piazze e ponti. Mentre i calcoli tecnici sono fondati su modelli matematici, l’analisi dei contesti d’uso è possibile solo con il coinvolgimento delle persone. Tuttavia, alcune linee guida da esperienze passate dovrebbe essere possibile dedurle. Ma forse, a differenza del mondo digitale, non esistono esperti di architettura (dovrebbero farlo gli ergonomi?) che raccolgono in un unico archivio tutti i difetti delle opere architettoniche alla prova dell’utente per trarne una casistica utile nei nuovi progetti.
  2. I limiti della corsa all’innovazione. Sebbene uno degli scopi di ogni progetto che ambisca ad ottenere ampio richiamo in tutto il mondo sia quello di apportare innovazioni rispetto all’esistente, vi è un rischio intrinseco nell’innovazione: quello della non facile testabilità. Si scelgono soluzioni che non possono essere a prova di ogni situazione. Penso soprattutto all’uso dei nuovi materiali resi disponibili dai progressi tecnici. Il loro comportamento può essere ampiamente testato sulle questioni strutturali (ovviamente prioritarie), ma forse meno su quelle contestuali. Come si comportano le superfici dei nuovi materiali quando diventano umide? O fredde? O calde? Non parlo solo dell’espansione o della contrazione, ma appunto, del fatto che costituiscano solidi piani d’appoggio, che le maniglie non siano viscide. Che non creino riflessi ingannevoli o fastidiosi in situazioni ambientali particolari. Tutte queste situazioni non sono testate per definizione per le idee innovative.

Innovativo significa “che non c’era prima”. L’innovazione è al centro del discorso produttivo e industriale odierno, e sembra che non si possa fare mercato senza una consistente dose d’innovazione. Ogni nuovo strumento viene presentato come innovativo, favorevole all’innovazione, abilitante all’innovazione. L’innovazione per essere sicura – o anche solo funzionale – ha però bisogno di un rodaggio. Possono infatti presentarsi problemi imprevisti. Anzi, spesso l’innovazione porta soluzioni inedite a problemi vecchi e nuovi, ma ne pone o ne crea altri, imprevisti.

Se l’innovazione diventa un valore assoluto, a prescindere dai casi e dai contesti, gli effetti collaterali vengono visti come inevitabili dazi pagati al progresso. Che è misurato solo sulla base dei vantaggi ottenuti da committente e progettista (in termini di prestigio o di ricavo economico), non della società nel suo insieme. Se l’innovazione è invece solo una delle possibili qualità di un progetto, inserita in un elenco di priorità che può prevedere che altre caratteristiche siano di volta in volta privilegiate, allora anche la qualità della vita, la sicurezza, il comfort, diventano variabili altrettanto importanti dell’aumento di produttività o di prestigio. E si tratta di variabili che riguardano tutta la comunità, non solo committente e progettista.

Quando con il cliente va tutto storto

Antonio Volpon affronta un argomento assai poco dibattutto: i problemi di comunicazione con i clienti.

Un tema che sarà anche sgradevole, ma con il quale ci si trova a dover fare ogni tanto (si spera solo ogni tanto…) i conti. Un’azienda strutturata come quella dove lavora Antonio è naturalmente più esposta a incomprensioni rispetto al singolo professionista, perché spesso ci sono molte persone nello staff che devono parlare con altrettante persone nello staff del cliente. Capita comunque a volte che si arrivi ad un punto del progetto con la sensazione che non ci si sta affatto capendo, né reciprocamente soddisfando.

Certo, una mail come quella citata da Volpon è assai rara da ricevere. Capita cioè assai di rado che un cliente dica esplicitamente che è deluso e che si aspettava di più. In 18 anni di lavoro nel campo della comunicazione (non solo nell’usabilità), non ho mai ricevuto (nè visto ricevere) critiche così esplicite. Ma ho sempre ritenuto che questo fosse un male. Esplicitando il problema – magari con il necessario tatto e senza cercare vendette personali – si ha una maggior probabilità di risolverlo. Di solito, invece, i clienti hanno una certa difficoltà a mettere in discussione il consulente, il collaboratore, l’azienda che stanno pagando. Aspettano di finire il contratto per poi archiviarlo. E così nessuno impara niente dall’esperienza, fino alla prossima delusione.

In lavori come le consulenze di usabilità (ma anche nel project management) il problema con i clienti è spesso legato a:

  1. Il fatto che il lavoro di analisi “non si vede”
  2. Il fatto che il lavoro produce report o bozzetti che non sono come ci si aspettava
  3. Il fatto che non è chiaro a priori chi deve fare cosa
  4. Il fatto che si parlino linguaggi differenti o si adottino punti di vista differenti, il che porta ad aspettative errate che emergono però troppo tardi, quando il lavoro è ad uno stadio avanzato e ognuno dei componenti del progetto è partito per la tangente, assegnando responsabilità a tizio o a caio

A volte le difficoltà originano da problemi di relazione interni allo staff del cliente con cui si lavora. Persone con idee, formazioni, obiettivi differenti remano per spostare o anche solo vedere il progetto in un modo non condiviso. Da consulente esterno ho spesso la sensazione di non riuscire a intervenire in queste dinamiche, per ovvie ragioni. Ma è da lì che bisognerebbe partire.

Non potendolo, bisogna subire passivamente? Direi di no. Si possono almeno mettere in atto unilateralmente alcune “buone pratiche”:

  1. Concordare nel dettaglio il tipo di output (di delivery) che si produrrà. Meglio se si presentano esempi (cosa difficile, perché bisognerebbe violare il non disclosure agreement stipulato con clienti precedenti). Ecco perché è buona norma avere delle pagine “dummy”, cioè fittizie, che testimonino come saranno i documenti veri. Attenzione: questi vanno prodotti solo quando è certo che potrete produrli in quel caso. Nelle analisi di usabilità si possono compilare i report in molti modi, ed è bene non presentare un esempio che non riuscirete a mantenere per mancanza di dati a disposizione.
  2. Se il cliente non ha le idee più che chiare, preferire documenti progettuali ad alta fedeltà. Sono più seduttivi, e nella mia esperienza meglio digeriti dal mercato italiano. Una buona pagina in Photoshop conquista molto più il cliente di un complesso mockup interattivo a bassa fedeltà che ha richiesto il triplo di lavoro.
  3. Evitare le pratiche ossessive. Sebbene tutti i buoni manuali di management prescrivono di compilare dopo ogni riunione una lista di “punti condivisi” da… be’, condividere fra tutti i partecipanti, questi documenti spesso vengono compilati da un’unica persona: il che gli assegna un ruolo che magari nemmeno vuole, ma che mette pressione agli altri partecipanti laddove si usi un linguaggio poco chiaro o si adotti un punto di vista unico. Ho trovato spesso queste liste discutibili, poco accurate, piene di punti che non si erano affatto condivisi o non risolti. Inoltre, la pratica di inviare di continuo documenti di questo tipo fa percepire un chiaro clima di sfiducia (anche se non è chiaro di chi verso chi). Poiché condividere è necessario, è bene farlo in maniera più morbida e collaborativa. Fissare pochi obiettivi e scadenze chiare, ed evitare liste della spesa ansiogene e irrealistiche.

Spesso per ridurre le tensioni è sufficiente produrre esempi concreti, superando le aspettative. Produrre un documento completo e con esempi di soluzioni concrete, anche se solo informale, aiuta a creare un clima di fiducia e a volte abbassa la tensione di riunioni troppo lunghe e inconcludenti.

Bisogna ricordare che le tensioni spesso nascono dall’ansia di qualcuno dei componenti. Tutte le tecniche volte alla riduzione dell’ansia (conferme, risultati, divisione del lavoro in componenti maneggiabili e parziali, clima più informale ma rispettoso di scadenze e vincoli) possono essere decisive.

Google, l’indicizzazione di Flash e la guerra a Microsoft

La notizia che Google sta iniziando a indicizzare anche i contenuti in Flash ha entusiasmato un paio di mesi fa i web designer impegnati nello sviluppo con Flash di Adobe. E in effetti una barriera storica verrebbe a cadere. Dato che Google è attualmente la principale fonte di accessi della maggior parte dei siti, l’uso di Flash è stato fortemente frenato, finora, non tanto dall’usabilità (sebbene Flash non debba per forza essere evitato, ma solo usato bene, per fornire valore aggiunto: e richiede competenze mediamente superiori all’uso di HTML/CSS), ma dalla scarsa ricercabilità.

Come mai proprio ora? Perché Adobe ha rilasciato una versione del player specifica per i motori di ricerca, che ne possono sfruttare le qualità per “leggere” i testi contenuti in Flash. Non tutti, però: testo, link e bottoni. Testi contenuto in immagini, video e animazioni continuano a non essere ritrovabili, alla pari dei metadati o del linguaggio di marcatura eventualmente contenuto nel file Flash. Anche così, però, è un bel passo in avanti. Superato anche il limite dell’invisibilità di Flash ai motori se inserito nella pagina via javascript, come nelle tecniche SWFObject e SWFObject2 (se siete interessati all’indicizzazione e alla SEO qui ci sono interessanti dettagli).

All’orizzonte c‘è ora un mercato ben preciso, quello delle RIA, le Rich Internet Application. I principali player del settore stanno, nuovamente, tentando di imporre il proprio standard in quello che tutti immaginano sarà il terreno più importante degli anni a venire, le applicazioni online. Adobe con AIR, che mescola Javascript e Flash, e Microsoft con il suo Silverlight sono i principali standard che stanno provando ad occupare questo sugoso settore.

Un tempo i formati e i linguaggi si affermavano conquistando un’ampia base di sviluppatori. Ora non basta: servono i motori di ricerca. Un’applicazione web i cui contenuti e i cui servizi non siano restituibili da Google è un’applicazione zoppa. Questo testimonia una volta di più il ruolo centrale assunto da Google nel web attuale. E Microsoft? Anzitutto, Google non ha annunciato l’indicizzazione delle RIA in Silverlight. Lo farà, in futuro? Robert Scoble ne dubita. Ma questo non significherà fare un cattivo servizio ai propri utenti?…

Ma soprattutto, per il momento MSN non ha affatto annunciato l’intenzione di indicizzare i file Flash (mentre Yahoo! sì, accodandosi a Google). Quali conseguenze avrà questo non solo per Silverlight, ma anche per MSN stessa? Questo è solo un assaggio di come si svolgeranno le guerre commerciali per gli standard del futuro.

Test di usabilità e indagini di mercato: verso un’inedita alleanza?

In un’intervista di Luca Chittaro a Kris Mihalic, che si occupa di applicazioni e servizi mobili per Yahoo, si parla degli approcci usati per renderli usabili. Mihalic sottolinea l’impiego di metodi qualitativi e quantitativi (qui un riassunto sulle differenze e qui un’introduzione su alcuni metodi). Questionari online e ricerche di mercato vengono utilizzati per capire i desideri degli utenti e le aree di un’applicazione di cui si dichiarano più o meno soddisfatti. Questo consente di utilizzare i test di usabilità o le osservazioni sul campo in maniera più mirata, per approfondire le ragioni e i dettagli di eventuali insoddisfazioni.

Approccio sensato: un’indagine di mercato da sola non fa capire i problemi reali, ma solo opinioni, desideri e atteggiamenti. E d’altra parte, progettare un test di usabilità senza avere un’idea di cosa gli utenti dicono di desiderare può essere un’inutile perdita di tempo.

Un approccio misto è consigliabile anche senza una ricerca di mercato: d’abitudine io somministro un questionario ed un differenziale semantico agli utenti dopo un test di usabilità. Oltre all’intervista post-test. I dati che emergono sono utili a guidare l’interpretazione dei risultati di prestazione e a differenziare soddisfazione da efficacia ed efficienza.

Mihalic cita anche un curioso errore emerso nei test: gli utenti dei dispositivi mobili digitano il proprio indirizzo mail sui motori di ricerca nella speranza di essere portati alla webmail! E’ quasi un errore di usabilità di nuova generazione, derivato da un altro più comune: molti utenti digitano direttamente nella casella di ricerca l’indirizzo del sito su cui vogliono arrivare! Sono cioè ignari della funzione della barra degli indirizzi del browser o non la collegano al proprio scopo. Poiché questo errore è assorbito dai motori di ricerca, essi lo replicano anche con l’indirizzo email.

Il comportamento si dimostra guidato da una scarsa consapevolezza dell’architettura del web, ma orientato all’utilità pratica. Si usa prima di capire. Proprio come nella realtà. Aspettiamoci, con il web mobile, delle interessanti sfide per la progettazione di applicazioni, perché non sarà vero a lungo (e forse non lo è già più) che gli utenti dei dispositivi mobili sono i più tecnologicamente evoluti.

Da dove navigano gli italiani?

Ovvero: da quali regioni si naviga di più?

Se non disponiamo di statistiche globali per regione, possiamo sempre provare a chiederci da dove arrivano i visitatori sul nostro sito, per farci almeno un’idea parziale. La funzione di geolocalizzazione offerta dai servizi di statistiche è un utile punto di partenza. Shinystat per esempio classifica le visite per regione di appartenenza, offrendo una vista grafica dove le regioni più scure sono quelle da cui proviene il maggior numero di visite. Il risultato di settembre 20081 (fino al 24) per usabile.it è il seguente:

mappa regionale delle visite su questo sito
Mappa delle visite a questo sito divise per regione. Le più scure sono le più attive. L’ordine decrescente è: Lombardia, Lazio, Piemonte, Emilia Romagna, Veneto, Toscana, Campania, Sicilia, Puglia, Friuli Venezia Giulia, Sardegna, Liguria, Trentino Alto Adige, Calabria, Umbria, Marche, Abruzzo, Molise, Basilicata, Valle d’Aosta.

Alcune regioni, come Lombardia e Lazio sembrano dunque molto più “attive” tecnologicamente di altre. Regioni come la Basilicata e il Molise sono il fanalino di coda. Il termine “attività tecnologica” è in questo caso un modo sintetico per riassumere una serie complessa di fattori culturali e tecnologici insieme. Non ha alcuna pretesa, se non quella di evidenziare differenze fra territori.

Ma è corretto prendere questo dato nudo e crudo come indice di una maggior o minor “attività” tecnologica di quelle regioni? No, perché il dato esprime valori assoluti, e non percentuali in relazione alla popolazione. Dunque ai primi posti potrebbero figurare alcune regioni solo perché sono più popolose.

Il numero assoluto dei visitatori deve dunque essere diviso per la popolazione di ciascuna regione. La classifica così riordinata per regione vede qualche sorpresa:

  1. Lazio
  2. Lombardia
  3. Friuli Venezia Giulia
  4. Piemonte
  5. Emilia Romagna
  6. Trentino Alto Adige
  7. Veneto
  8. Umbria
  9. Toscana
  10. Sardegna
  11. Liguria
  12. Marche
  13. Campania
  14. Puglia
  15. Calabria
  16. Sicilia
  17. Abruzzo
  18. Molise
  19. Valle d’Aosta
  20. Basilicata

In testa il Lazio e non la Lombardia (che invece è la regione più popolosa), un sorprendente podio per la mia regione (Friuli Venezia Giulia), che fa meglio di Veneto, Emilia Romagna e Trentino Alto-Adige. Le note negative sono purtroppo la netta divisione in due della classifica secondo l’ordine nord-sud. Quasi tutte le regioni meridionali sono infatti agli ultimi posti! Curiosa la mediocre posizione di una regione vivace come la Liguria.

Questa banalissima analisi suggerisce che forse esiste realmente un problema di “divario digitale” interno al paese. I dati europei sulla diffusione della banda larga, di cui ho parlato su Apogeonline, parlano di un’Italia a macchia di leopardo. In particolare, sono dati che distinguono nettamente fra aree urbane e rurali.

Da questi dati l’Italia pare più che altro divisa in due.

Questa analisi è solo esemplificativa, dato che il campione è limitato nel tempo e il mio sito è particolare: si rivolge ad una popolazione non rappresentativa dell’intera popolazione di navigatori. Inoltre è possibile che dalla mia regione arrivino più visite su questo sito perché personalmente sono più conosciuto, e che man mano che si scenda verso il sud meno persone mi conoscano. Tuttavia, internet è un business globale e anche il mio, nel mio piccolo, lo è (lavoro infatti un po’ in tutt’Italia), dunque questi fattori dovrebbero essere bilanciati. Ma non si sa mai.

Perciò, dato che questa analisi è semplicissima, potrebbe essere interessante farla ciascuno per il proprio sito e poi condividere i risultati per un confronto. E’ opportuno solo dare un’indicazione di massima del campione utilizzato (nel mio caso si tratta di quasi 4000 visite dall’Italia), e comunque ragionare almeno a partire da campioni superiori alle 1500-2000 unità. Anche scegliendo periodi più lunghi, se è il caso.

Riassumo per comodità i passaggi da compiere se non fossero chiari. Saltateli pure se sono ovvi:

  1. Copiate la classifica per regione di Shinystat o del vostro servizio di statistiche su un foglio di calcolo (nomi su una colonna, numero di visite sull’altra)
  2. Ordinatelo alfabeticamente per la colonna del nome
  3. Copiate – su un altro foglio – dall’indirizzo http://www.comuni-italiani.it/regionip.html la tabella con i dati di popolazione (su una colonna i nomi e sull’altra la popolazione)
  4. Ordinate anche questa alfabeticamente per la colonna del nome
  5. Copiate i dati così ordinati sul numero di abitanti e incollateli sul primo foglio, nella colonna a fianco del numero di visite sul vostro sito, in modo da avere tre colonne con dati corrispondenti
  6. Posizionatevi sulla prima cella della quarta colonna (supponiamo sia D1, se non usate intestazioni) e scrivete la formula: =B1/C1
  7. Trascinate la formula in tutte le righe della quarta colonna, cambiando di conseguenza il numero delle celle (sulla seconda ci dev’essere =B2/C2, eccetera)
  8. A questo punto riordinate il tutto secondo questa quarta colonna, dal numero più grande a quello più piccolo
  9. La colonna dei nomi così ottenuta indica le regioni dalle più attive alle meno attive; pubblicatela nella forma che credete e… fatelo sapere sul vostro sito!

Miglioramenti, suggerimenti, commenti e comparazioni (segnalatemele) sono i benvenuti!

1 Nota: Ho usato il servizio Shinystat, in uso per il monitoraggio dei dati del network pubblicitario di Metafora cui aderisco, perché ad esempio Google Analytics offre la geolocalizzazione per “network location”, cioè per area urbana:

La geolocalizzazione per città di Google Analytics.

Il quadro che ne esce è se vogliamo più dettagliato e dunque più veritiero, rivelando una frammentazione che privilegia alcune aree urbane rispetto ad altre, ma non ci aiuta a ragionare per regione, mentre invece sono le regioni e in generale gli enti locali che hanno competenza su politiche specifiche di diffusione dell’uso della rete. 

La seduzione del multitouch

Lo avete notato? Le interfacce stanno diventando sempre più seducenti. Dopo l’iPhone, il multitouch è entrato di diritto nell’elenco delle caratteristiche trendy di un’interfaccia. Lo dimostra il fatto che vengano fatte e diffuse presentazioni di prototipi prima ancora che si annuncino veri e propri prodotti, come nel caso del recente Microsoft Surface Sphere. È l’occasione per una riflessione che ho voluto proporre su Apogeonline sulla non più così breve storia di queste interfacce e dei pochi prodotti finora commercializzati, navigando fra problemi assai meno trendy ma più cruciali per il nostro futuro: ovvero chi ha e avrà il brevetto su questo tipo di interfacce, e come l’interfaccia sia diventata ormai oggetto di narrazione e di costruzione di identità.