I risultati – per il 70% riferiti al mondo anglosasssone – sono presentati in serie storica, comparandoli con quelli analoghi del 2011, del 2014 e del 2016. Nel tempo il metodo di campionamento degli studi è tuttavia cambiato, quindi i risultati non sono perfettamente sovrapponibili. Ma è utile per capire i trend, pur con i limiti di cui sopra, anche perché è probabile che influenzino il resto del mondo, tra cui l’Italia.
1) Meno analisi dei requisiti
Tra i trend, purtroppo, spicca il calo delle attività legate all’analisi dei requisiti, quella che dovrebbe stare alla base di ogni progetto e che comprende attività come la scrittura di Personas e profili utente, l’analisi dei requisiti, gli studi etnografici e la task analysis.
Queste attività sono tutte in calo tranne le personas/user profiles. Il che significa, purtroppo, che si scriviamo molte storie su personaggi immaginari, poco basati su dati reali. Questo trend è anche un tradimento delle indicazioni di Cooper, che è fra gli inventori delle Personas, e che sottolineava come i profili e le personas descritte devono essere definiti a partire da dati reali.
Si tratta un po’ quindi di un tradimento della pare U, User, dell’etichetta UX.
2) Più visual design
Al contrario, fra i trend di crescita vediamo quelli legati a prototipazione e visual design. E’ un po’ l’indicazione che il settore stia diventando sempre più un settore che fa progettazione, ma… di tipo tradizionale. Cioè quella che faceva una volta il cosiddetto “web designer”. Si fanno i disegni ad alta fedeltà delle schermate. Magari con strumenti nuovi e in rete: ma è un’attività davvero vecchia, solo con un’etichetta nuova.
3) Buona tenuta dell’accessibilità
In crescita – benché sempre marginali, solo il 20% di menzione nelle risposte – le attività legate all’accessibilità, sia con analisi esperte che attraverso i test con utenti disabili. Probabilmente è legato alla revisione delle WCAG (prima con la versione 2.0 e ora con la versione 2.1) e della sec.508 negli USA In Italia le norme sono state aggiornate alla 2.0 prima e alla 2.1 di recente, con tempismo decisamente migliore rispetto al passato.
4) Più design thinking per tutti
Infine, tra i trend interessanti la crescita delle attività strategiche, che nel 2011 nemmeno venivano menzionate. Consulenza strategica e design thinking, soprattutto, che da qualche anno è una buzzword anche da noi e denota un insieme di approcci ai problemi progettuali divergente e laterale, per affrontare in maniera strutturata le diverse fasi e i problemi.
Che ne pensate? Si vedono gli stessi trend anche in Italia? E soprattutto, cosa fare per recuperare l’orientamento all’utente che la UX da questi dati sembra in parte perdere? Lasciatecelo scritto, se volete, nei commenti.
Ha generato poca enfasi, e quasi sempre partigiana (a parte il tentativo più equilibrato di Valigia Blu), la ricerca di Reuters Institute for Study of Journalism sulle Fake News.
La ricerca è scaricabile qui, in una pagina dove si anticipano per punti i principali risultati. I giornali e i siti indipendenti che l’hanno ripresa titolano più o meno:
“Le fake news raggiungono (solo) il 3% di italiani online”
Ehm, no. Quella è solo la portata, o reach, o percentuale di navigatori raggiunta, delle testate classificate come generatrici di notizie esplicitamente false.
La stessa pagina che presenta la ricerca, infatti, nota che c’è qualcosa che non va. Ed è il numero di interazioni sui social media che le fake news ottengono. Pur partendo da un reach così basso.
Le peculiarità delle news “fake”
Ed è proprio questo il fatto rilevante. Infatti:
È del tutto logico che siti privi di reputazione, nati magari in periodi di campagna elettorale solo per alimentare notizie falsate abbiano un reach basso. Siti come metogiornale.it sono del tutto sconosciuti, rispetto a repubblica.it! Non ci aspetteremo che la gente li visiti in quantità paragonabile? Quello che non è logico è che abbiano una circolazione social così alta!
Se non ci fossero i social media, questi siti non esisterebbero. Infatti il modo in cui i contenuti fasulli vengono condivisi non prevede affatto che le persone leggano gli articoli! Questo perché puntano esclusivamente sulla condivisione social, dove a raggiungere i lettori sono spesso solo il titolo e l’immagine. Diverse ricerche segnalano che spesso mettiamo like o condividiamo notizie sui social senza nemmeno averci cliccato. Le fake news capitalizzano su questa tendenza, non sul reach delle fonti originali1!
A chi dice che le fake news non esistono, e che tutti i media disinformano, si può dunque rispondere che, se in generale può essere vero, è diverso il modo e i limiti all’interno dei quali gli outlet “fake” lo fanno.
I siti che la ricerca classifica come “fake” a volte non sono nemmeno testate giornalistiche, e talvolta non sono nemmeno registrati nel Paese nella cui lingua operano. I siti di giornali invece, oltre a essere testate giornalistiche, hanno di solito una storia, devono anche vendere copie cartacee o abbonamenti digitali, operano all’interno di un pur migliorabile quadro deontologico, e rispondono di ciò che scrivono. Le loro manipolazioni e falsificazioni devono dunque essere prodotte attraverso limiti maggiori, e, piuttosto che scrivere notizie apertamente false, si prediligono artifici retorici, framing, allusioni, ecc (anche se purtroppo non mancano casi di bufale vere e proprie).
Ai siti di fake news può bastare un buon titolo rigorosamente fasullo e una strategia social2.
Le fake news che sfruttano i social sono qualitativamente diverse da quelle dei media tradizionali
Una obiezione possibile è che le condivisioni le cercano e le ottengono tutti, anche i siti tradizionali. È vero, ma questi grafici dovrebbero chiarire che si tratta un meccanismo sfruttato particolarmente bene dalle fonti “fake”:
I due grafici, tratti dalla ricerca Reuters, confrontano il reach mensile dei siti considerati (quelli classificati come fonti di fake news sono in blu scuro, nella “coda lunga”) in alto, e le loro interazioni Facebook, in basso. Già questo confronto mostra come l’interazione di alcuni siti che non hanno quasi reach sul proprio sito sia molto più alta sul social, superando in particolare le interazioni di Rainews. Potete aprire le immagini in un’altra scheda per poterle leggere con maggior facilità
Letta così, dunque la ricerca è molto più utile, perché ci dice qualcosa dei meccanismi comportamentali che senza i social media non esisterebbero, o almeno non su questa scala.
Può questo fenomeno aiutare a definire meglio diverse tipologie di fake news? Non da solo, ma può probabilmente aiutare a circoscrivere meglio il fenomeno, aiutando così anche a evitare normative censorie (come quella contro cui si stanno mobilitando attivisti per i diritti umani in Malesia, per esempio) prodotte magari proprio sfruttando la confusione sul tema, ma con ben altri scopi.
L’eterna partita fra Francia e Italia
Semmai, la seconda notizia sorprendente è che le interazioni delle false notizie sui social è maggiore in Francia di quanto lo sia stata in Italia, dove hanno superato solo le interazioni della testata RaiNews. Dunque, siamo un popolo meno sensibile alle fake news dei francesi?
Le interazioni social dei siti di fake news francesi superano cumulativamente di gran lunga quelle dei siti di news francesi. Il confronto è con la seconda immagine italiana vista sopra. Ed è abbastanza impressionante, a dirla tutta.
Comunque guardando i dati e senza altre considerazioni non emerge un’immagine di popolazione italiana particolarmente “boccalona”. Anzi. Ma una specificità di funzionamento di questo genere di false notizie sì!
Direzioni di ricerca future
Quello che i dati non ci dicono è perché queste notizie generano maggiori interazioni. È probabile non dipenda da un unico fattore: non basta il titolo civetta o la presenza di una persona dedicata a gestire una strategia social. Le persone dedicate le hanno tutti (be’, forse non a Rainews…), le capacità anche, eppure questo genere di notizie viene condivisa meglio: capire quali aspetti generano questa maggior condivisione è uno degli obiettivi della ricerca futura.
Ma è certo che il reach non è la metrica migliore per dire che le fake news “non hanno impatto”. Non sono mai state pensate per quello.
1 Alcune di queste fonti non sono nemmeno testate giornalistiche!
2 Il Consiglio d’Europa propone di parlare non di fake news ma di un fenomeno più sfaccettato di information disorder (qui riassunto da Scienza in Rete). A me questo approccio spaventa di più, perché mette assieme appunto fenomeni diversi, che andrebbero invece distinti ed eventualmente normati per quello che sono, evitando di confonderli. Quanto meno userei un nome specifico per le notizie deliberatamente false e da fonti che non rispondono giornalisticamente di quanto scritto e che riescono a suscitare più attenzione di quanta ne generino le fonti originali attraverso il circuito dei social media, appunto.
Ho imparato a fare il caffé da poco, e subito mi hanno regalato una caffettiera programmabile, che rende quasi inutile il mio intervento. Ora però devo ricordarmi almeno di comprarlo, il caffé. Cosa nient’affatto ovvia, per uno che esce senza il portafoglio, per poi accorgersi una volta risalite a balzi le scale di averlo nell’altra tasca (“oh, ma quello non era il cellulare?”… Eh, no. A proposito: il cellulare dov’è?).
Ma devo essere proprio un ex-ragazzo fortunato, perché fra poco non avrò più bisogno nemmeno di preoccuparmi di comprare il caffé. Ci penserà Poppy Pour-Over, una caffettiera a caduta che si accorge da sola quando si consuma il filtro e soprattutto… quando finisce il caffé. E piazza l’ordine al posto mio! Tutto online, naturalmente, via wi-fi casalingo, attraverso un’app sullo smartphone (ammesso che mi ricordi dove stia), sfruttando un’API di Amazon. L’API si chiama Dash Replenishment Service ed è l’ultima trovata di Jeff Bezos.
Si tratta di un’applicazione dell’Internet of Things, l’Internet delle cose che vedrà sempre più oggetti di uso comune collegati alla rete per comunicare il loro stato ad un server che ne consentirà la gestione in remoto.
Save the cat
Detto così sembra utile. Potrò non finire mai il toner della stampante. Potrò rendermi conto di quando l’automobile sta per guastarsi (a proposito: dove ho messo le chiavi?… oh, be’, ci sarà un’app anche per quello). Potrò essere sicuro che il gatto abbia sempre di che mangiare (a proposito: dov’è il gatto? Ah, no, quello non ce l’ho…).
Il Dash Replenishment Service è anche il servizio che sta dietro agli Amazon Dash Button, bottoni brandizzati da appiccicare negli armadi, sulla lavatrice, in cucina, che ci aiutano a piazzare un ordine di un detersivo, di un cibo o di una bevanda di cui stiamo terminando le scorte. Cosa? Il bottone dobbiamo premerlo noi? Lo so, è una seccatura, ma è un servizio appena nato: vedrete che con il tempo il nostro intervento non servirà più…
Un esempio di Amazon Dash Button. Premetelo e riceverete una scorta di dolcetti al cocco. O di detersivi. Dipende dal Paese nel quale vi trovate…
Così Amazon si sta preparando a colonizzare la nostra casa, senza più bisogno di occhieggiare dagli schermi di computer e tablet. Così tenta anche di stabilire un primato sull’Internet of Things. E di aiutarci con la nostra proverbiale sbadataggine.
I soliti pessimisti alla riscossa
Però. C’è un però, no? Be’, secondo alcuni sì. Mark Resnick, un professore della Bentley University, per esempio, fa un elenco di osservazioni sulle quali vale la pena di soffermarsi un attimo.
Non prevenzione dell’errore, ma suo recupero
Amazon sottolinea che gli acquisti così piazzati genereranno un messaggio sullo smartphone. Così l’utente potrà eventualmente annullarli. In caso di errore, o di ripensamento.
Buona cosa: in fondo non stanno decidendo per noi, giusto?
In realtà questo non è un meccanismo di prevenzione dell’errore, ma piuttosto di eventuale recupero dell’ordine indesiderato. La differenza è che nella prevenzione dell’errore, l’ordine di default non viene piazzato: richiede la conferma dell’utente. Qui invece il default è l’ordine. Se l’utente non fa nulla, se non nota il messaggio o lo cancella per sbaglio, l’ordine viene mandato avanti.
Il cambio del default è assolutamente significativo. Ci sono ricerche (piuttosto ovvie, ma ci sono…) secondo le quali un processo di acquisto privo di passaggi e scelte per l’utente aumenta le transazioni.
Nessuna comparazione
Viene eliminata ogni possibilità di comparazione del prezzo: si acquista da Amazon, qualunque sia il prezzo.
Fidelizzazione by default
Viene eliminata l’occasione per passare da un brand all’altro. E sappiamo quanto questo stia a cuore ai brand. L’ideale di ogni brand è diventare un monopolio de facto. Questo sistema dà ad Amazon una forte posizione di controllo sui brand stessi.
Pubblicità gratis
I Dash Button riempiono la casa di brand, visibili da tutti 24 ore al giorno 7 giorni su 7, svolgendo così anche una funzione promozionale e di rafforzamento del brand. Si potrebbe dire che la stessa funzione ce l’abbiano le etichette dei prodotti. Ma quando i prodotti vengono gettati, il brand viene gettato con essi. Mentre i Dash Button sono pensati per essere permanenti.
Il sistema operativo della nostra vita
C’è un potenziale di paternalismo tecnologico [PDF] in questi servizi che automatizzano i compiti allontanando dalla nostra consapevolezza e dalla nostra attenzione le scelte. Sono prodotti e servizi progettati per farci comprare di più scegliendo meno. Sempre più in background, proprio come in background il nostro sistema operativo si aggiorna quando lui ritiene ce ne sia bisogno.
Un’opzione il sistema ce la offre. Riavviare subito, o automaticamente fra 10 secondi?… Siamo noi a scegliere!
La metafora non è casuale perché tutta l’Internet of Things non è altro che la creazione di una specie di grande sistema operativo in background che mette in rete oggetti che prima non lo erano, favorendo lo spostamento di alcune scelte lontano dalle persone e sempre più vicine ad un algoritmo.
L’eliminazione o la riduzione del fattore umano non avviene necessariamente per costrizione, ma anche solo influenzando le probabilità di scelta cambiando i default. L’utente può (nei casi migliori) sempre optare per una scelta diversa dal default. Ma:
Deve ricordarsene
Deve avere il tempo o le competenze per formulare una scelta diversa
Deve fisicamente farla (mentre per il default non deve fare niente!)
Mentre se non fa niente, non ne riceve nessuno svantaggio apparente.
Agire è più costoso che non agire
È un paternalismo tecnologico “light”, o libertario. È quello in cui la tecnologia suggerisce senza obbligarci, ma impostando dei default che rendono più probabili certe azioni.
Sappiamo che un’impostazione di questo tipo è persino utile, ad esempio per spingere verso comportamenti salutari una fascia di popolazione. Allo stesso modo, può essere usata per scopi meno nobili.
Attraverso un accorto uso della behavioral science, di una progettazione persuasiva, di studio dei processi cognitivi, ora anche i prodotti di uso comune verranno sempre più progettati per influenzare il nostro comportamento economico di default, a meno che noi attivamente non agiamo. E agire è sempre più costoso (cognitivamente, ma non per il nostro portafoglio…) che non agire.
Perciò quasi quasi non agisco: evito di comprare il Poppy Pour-Over. È sicuramente più semplice che annullare ogni settimana il messaggio sulla nuova fornitura che mi arriverà sullo smartphone…
Nel numero di Nòva del Sole 24 ore del 16 febbraio 2014 diversi interventi segnalano il percorso intrapreso per attuare l’Agenda Digitale italiana (implementazione dell’omonimo piano europeo che arriva fino al 2020). Almeno sulla carta, mi pare una strada sensata e corretta.
In particolare, Alessandro Longo, nel segnalare che questa strada è tipicamente italiana e ci differenzia dagli altri Paesi europei (anche perché abbiamo un ritardo strutturale da colmare) descrive i 3 progetti preliminari su cui si sta lavorando e che sono propedeutici a tutto il resto:
L’identità digitale: Un modo univoco per essere identificati nel mondo digitale della PA e per accedere a servizi con un’unica password. Questo richiede degli standard che siano seguiti da tutti i servizi sparsi sul territorio.
L’anagrafe unica: un unico “deposito” che dia accesso e visibilità a tutti i dati delle anagrafi che ora sono sparsi e gestiti da molti enti anche locali, in modo che si possa conoscere e aggiornare tempestivamente ogni informazione che riguardi i cittadini, evitando così di dover riprodurre informazioni in luoghi diversi, affidarsi ad autocertificazioni, richiedere dati fra enti, ecc. Questo è uno dei grandi colli di bottiglia della PA digitale, responsabile di molti disservizi attualmente esistenti non solo online, ma anche nel mondo fisico. Le linee guida dovrebbero essere emanate attraverso un decreto attuativo entro maggio 2014 e la consegna e normalizzazione/unificazione dei dati concludersi entro il 2015. Vedremo.
La fatturazione elettronica: in modo che si sostituiscano, nei rapporti con la PA, tutte le fatture cartacee. Questo dovrebbe rendere più tracciabile il flusso di clienti e creditori, consentire risparmi e ottimizzazioni. Dal 6 giugno di quest’anno scatterà l’obbligo di fattura elettronica se si vuol essere pagati dalle PA centrali, mentre entro il giugno 2015 dovrebbe estendersi anche alle PA locali.
La centralizzazione del dato
Sullo sfondo, Francesco Caio, attuale commissario per l’Agenda Digitale, sottolinea come ogni realizzazione in questo settore debba necessariamente passare per una centralizzazione del coordinamento del dato informatico. E’ impensabile fare passi avanti nell’attuale babele di banche dati sparse sul territorio con formati e strutturazione dei dati le più diverse. E’ necessaria una standardizzazione nazionale. Poi sarà a carico dei singoli gestori garantire l’interfacciamento con lo standard per ottenere finalmente una piena interoperabilità dei dati.
Questi sono obiettivi minimi e del tutto sensati: senza il loro raggiungimento ogni idea di Agenda Digitale è destinato a infrangersi contro muri di gomma, quelli con i quali spesso ci troviamo a confrontarci già ora.
C’è da aggiungere un dettaglio: Francesco Caio è a scadenza di mandato il prossimo marzo. Non sappiamo se tale attenzione sul Sole 24 ore a questi temi, con interventi diretti dello stesso Caio, siano un modo per sponsorizzarne la riconferma.
I governi cambiano, le (buone) idee devono rimanere
Ma è indubbiamente necessario domandarsi: che accadrà con il neonato governo? Al di là dei singoli ruoli e di singole nomine, l’unica cosa che non possiamo permetterci è di ricominciare tutto ogni volta. Su molte cose si può discutere. Del discorso di Caio per esempio mi convince meno il parere obbligatorio dell’Agenzia Digitale su tutte le norme che hanno impatto sulla materia: benché sia logica conseguenza di un’esigenza di coordinamento nazionale, non si può non vedere il rischio di dirigismo o addirittura di veto su progetti che non incontrano il gradimento di specifici settori magari temporaneamente rappresentati nell’Agenzia; ma può darsi intenda male e mi sbagli. Meglio sarebbero linee guida chiare che vincolino le nuove norme, ma lascino anche la libertà di innovare laddove ce ne fosse la necessità.
In ogni caso, la strada sopra indicata va portata avanti, in attesa di arrivare a incentivare e le pratiche di progetto centrate sull’utente, miranti ad una elevata usabilità e facilità d’uso e a verifiche misurabili dell’esperienza utente (ne parliamo e vi incoraggiamo a segnalare problemi sulla pagina Facebook di Semplificazione Digitale). Certamente, senza interoperabilità dei dati e alcuni metodi condivisi di interagire con la PA, i progetti usabili non saranno mai sufficienti.
La buona notizia è che basterà aspettare maggio o giugno per capire quale strada prenderanno queste buone intenzioni.
I casi? Possono essere dettagliati oppure semplici storie raccolte al volo, come queste.
Un geometra ha difficoltà ad restituire moduli compilati al catasto per via telematica. Molti infatti sono presentati in formato PDF. Lui li vorrebbe in Word. Qui i problemi sono due: il primo è che non è consapevole del fatto che i PDF possano anche essere modificabili (e non sappiamo se quelli lo siano). Il secondo è che il sito non lo spiega o non offre un modo attraverso form di inviare le stesse informazioni. Così il geometra preferisce continuare a recarsi di persona presso il catasto.
Sempre un geometra ha necessità di fare una visura catastale per un cliente. Se potesse farla online risparmierebbe tempo e benzina. Ma ci sono due ostacoli: deve avere una delega del cliente e un documento d’identità di quest’ultimo. Online non è possibile presentarla e autenticarla. Benché il catasto sia online, non lo è per lo scenario del nostro geometra, che quindi è costretto a recarsi ancora online.
Un professore universitario viene invitato (obbligato) a registrare i voti d’esame attraverso procedura online. Purtroppo, la procedura è pressoché incomprensibile, piena di sigle e di selezioni che sono facili da sbagliare, e molto lenta da fare al momento dell’esame. Inoltre, non sono stati ritirati i registri cartacei e questi, per un periodo di transizione sono ancora validi. Il docente sceglie così di registrare il voto sul registro cartaceo al momento dell’esame, ed è obbligato a trasferire i voti online in un secondo momento, con l’assistenza del personale amministrativo. Perde così tempo lui e l’amministrativo. Il lavoro invece di semplificarsi si complica. Una procedura digitale deve poter superare e migliorare quella cartacea. Come se non bastasse, non in tutte le aule d’esame arriva la connessione wifi, e quella cablata è associata a computer obsoleti e non facilmente trasferibili al portatile del docente.
Avete casi di fallimento nel rapporto con la PA digitale? Segnalateceli! Raccoglieremo anche segnalazioni scritte e pubblicati da blog e giornali. Lo scopo ultimo è raccogliere lì spunti che possano essere utili a chi progetta i siti della PA, per capire che non basta mettere i servizi online: bisogna renderli facili e utili, più utili rispetto alla pratica cartacea. Altrimenti l’Agenda Digitale Europea rimarrà, è il caso di dirlo, sulla carta!
Su Apogeonline è uscita la prima puntata di un mio lungo articolo/saggio a fumetti sui social network. Lo segnalo perché vi recupero informazioni e materiali già usati per i miei corsi all’Università di Trieste (prima Editoria Multimediale, poi Giornalismo e Nuovi Media, e ora Informatica per psicologi), dove provo a dare una cornice storica al fenomeno delle reti sociali, che così tanto sta cambiando strategie e modalità di interazione e relazione online. Il saggio è a fumetti per diverse ragioni: la prima della quale è che da sempre faccio anche fumetti (oltre che usarli per progetti di ricerca). La seconda è che mi piace sperimentare un taglio didattico leggero per i temi tecnologici, un modo di usare il fumetto che non si vede spesso, né in Italia né all’estero (dove tuttavia il fumetto didattico è stato spesso svolto da grandi nomi del comics mondiale: Will Eisner ha dedicato buona parte della sua carriera a opuscoli illustrativi a fumetti per l’esercito).
La cadenza delle puntate sarà settimanale. Un grazie a Sergio Maistrello di Apogeonline che condivide il progetto, e buona lettura a tutti.
Funziona così: mercoledì 27 presentano il nuovo tablet della Apple. E poi ci venderanno nuovi prodotti, dei magazine digitali fatti apposta per questi e altri dispositivi simili (ne preparano anche altri produttori, come HP).
Non ci credete? Dovreste. Il lavorìo sottotraccia di editori e produttori software è infatti sempre più evidente e documentato. Lo si vede per esempio da questo “video concept” di rivista digitale su tablet, che si chiama Mag+ e che l’editore svedese Bonnier (Popular Science e Parenting and Outdoor Life, fra gli altri) ha commissionato all’agenzia Berg.
Le caratteristiche dei magazine digitali
Il magazine su Mag+ si potrà dunque sfogliare, ruotare, ricercare, con gesti semplici che ricordano lo scorrimento di un nastro continuo, piuttosto che le pagine sfogliate della rivista, e naturalmente si potranno isolare foto, testi, costruirsi ritagli, eccetera. Impressionati? O forse, dopo l’iPhone, queste cose sembrano quasi ovvie, tanto da stupirsi semmai che nessuno l’abbia ancora fatto?
Sui tablet si potrà sicuramente navigare, ma il progetto vero è quello di creare prodotti editoriali del tutto diversi dai siti web. Riviste con un inizio e una fine, chiuse, a differenza dei siti, che sono luoghi di aggiornamento continuo, e dai confini sempre aperti. Uno dei temi evidenziati nella ricerca della Berg è infatti che il web è fin troppo denso e ricco di informazioni, tanto da sommergere gli utenti, disorientarli, scoraggiarli: per quanto si diventi abili nella navigazione, l’esperienza non sarà mai completa, perché non c‘è un fondo, una fine.
La rivista ha invece il pregio di essere un luogo chiuso, dove i materiali sono stati pre-selezionati e impaginati per ottenere un effetto specifico, anche emotivo. Diventa cioè un semplificatore e potenziatore dell’esperienza cognitiva. E l’interfaccia, non a caso, è ben diversa, più fisica e ricca, di quelle cui ci hanno abituato i browser.
Multitouch, sfogliamenti, clip e pie-menu
Trattandosi di “concept video”, il prodotto ancora non esiste. Ma esisterà. Gli editori sono interessati alla capacità di fornire non solo l’esperienza della lettura, ma anche qualità fotografica, interazione stile iPhone/iPod, con features multi-touch che creino un nuovo segmento di mercato e consentano di reinventare il prodotto “rivista illustrata”. Non è difficile immaginare che l’obiettivo è fornire agli utenti delle ragioni per acquistare questi prodotti, proprio come fanno con i magazine cartacei.
Se il multitouch sarà il paradigma di interazione sul quale tutto il resto si innesterà, ci vorrà del tempo e qualche errore per fissare le modalità “standard” dell’interazione, ma il video offre già un interessante panorama.
Pie-menu alla riscossa
Da notare l’implementazione di un menu radiale (o a torta, come nell’inglese pie menu), che è una delle conseguenze pratiche più dirette della legge di Fitts.
Si sono già visti pie-menu in applicazioni o siti di nicchia e su telefonini. Vedremo se questo modo di interagire, usato con le dita e non con il cursore del mouse, prenderà finalmente piede nelle interfacce “emotive” e gestuali che si preparano per il prossimo futuro.
Nota:Torneremo sui pie-menu e sulle conseguenze della loro introduzione nelle interfacce, così come sui possibili sviluppi (come l’apprendimento di gesti per comandare i programmi) in un prossimo articolo.
Il Mag+ come progetto basato sulla ricerca
La Berg ha compiuto molte ricerche preliminari per sviluppare questo concept, intervistando molte persone per capire le reali motivazioni psicologiche ed emotive per le quali trovano piacevoli le riviste cartacee. Una fase della ricerca si è svolta in Corea e Giappone, dove l’uso dei media digitali è più avanzato, per capire presumibilmente contesti e modalità d’uso dei dispositivi portatili. Infine sono stati considerati i passati fallimenti delle riviste digitali, per non ripetere gli errori.
«Questa ricerca preliminare potrebbe sembrare senza senso, ma è buffo quanto spesso il settore dei media si fondi su congetture che si spera si autorealizzino – spesso la gente sorvola sulle differenze fra quello che i clienti vogliono e ciò che conviene all’editore, confondendo sovente le due cose, o fondendole assieme.»
E’ proprio a evitare questo che dovrebbe servire la ricerca.
Cosa non ci sarà nell’interfaccia del Mag+
Interessante anche cosa non è previsto in questo “concept”:
lo sfogliamento con gli angolini di pagina che si voltano, tipici di molte interfacce che simulano le pagine, ma che sono un nonsenso sui prodotti digitali (ovvero: le metafore letterali non sempre funzionano da un media all’altro!): meglio dunque lo spostamento delle pagine come se fossero parte di un’esperienza continua
E dunque, c‘è da aspettarsi che funzionalità di condivisione sociale saranno sicuramente presenti nel prodotto finale.
Editori al lavoro: i casi di Sport Illustrated e Wired
La proposta di Berg/Bonnier sembra già migliore di quest’altra, sviluppata tempo fa da Sport Illustrated (segno che a investirci sono in molti):
Ma non è tutto. La Adobe sta già lavorando con la Apple e l’HP e l’editore Condé Nast (quello di Wired, fra i molti altri) per produrre il software su cui gireranno proprio le riviste digitali che verranno fruite sui tablet Apple e sugli altri dispositivi del genere. Un video è disponibile solo sui chioschi multimediali dei negozi promozionali di Wired, ma è visibile una (cattiva) ripresa video qui:
Molti interessi economici si stanno insomma muovendo nella direzione dei magazine digitali. I punti fermi sono l’interfaccia multitouch e una buona qualità grafica. Altri punti rimangono incerti:
questi prodotti saranno “chiusi”, cioè realizzabili solo dai grandi editori, che a quel punto avranno trovato il loro cavallo di Troia per fare i profitti che il web, aperto, non gli ha finora consentito, e preservare prodotti e imprese giornalistiche?
o, invece, si assisterà ad una disseminazione di prodotti creati da soggetti piccoli e grandi, in maniera libera, come sul web? In tal caso si avrebbe una proliferazione di riviste digitali a pagamento alternative ai siti web
quale ruolo avrà a quel punto il web nella distribuzione dei contenuti? Tutto lascia intendere che il web diventerà quantomeno una testa di ponte per la distribuzione di questi contenuti a pagamento, sui siti o con applicazioni come App Store.
Potrebbe essere l’inizio di un grande cambiamento, sia di modello d’uso, sia commerciale, in direzioni anche abbastanza diverse da quelle verso le quali si è mosso il web finora. I cui orizzonti, però, nel bene e nel male, non sono ancora definiti.
E l’e-paper?
Un modello alternativo ai tablet è quello dell’e-paper. LG ha presentato giorni fa un proprio modello, che dalle immagini sembra promettente. Ma anche, per il momento, pesantuccio (quasi un etto e mezzo per un solo foglio A3).
Tuttavia, niente vieta di pensare a dei software che gestiscano l’interazione sull’e-paper esattamente come su un tablet. Oppure, forse, l’e-paper coprirà uno scenario d’uso alternativo rispetto ai tablet: grazie alle grandi dimensioni della carta, è possibile pensare di usarlo non per portarlo in giro, ma per rappresentazioni pittoriche ad alta dimensione e risoluzione, in contesti lavorativi o espositivi.
In ogni caso, in capo a una manciata di anni, potremmo vedere cambiare in maniera via via più consistente la produzione editoriale grazie alla progressiva miniaturizzazione dei componenti hardware, che proseguirà, e ad interfacce gesturali (o gestuali) sempre più evolute e raffinate.
Dopo l’accordo con Microsoft per l’uso del motore Bing, Yahoo sta tentando di reinventarsi. Uno dei modi è stato finora quello di assumere psicologi, etnografi e sociologi, insomma, quelli che in inglese si definiscono “social scientists” e di orientare i propri laboratori a scoprire in maniera scientifica come le persone si comportano online, cosa attira la loro attenzione, quali sono le cose che motivano di più. Un’occasione che dimostra come l’azienda californiana ritenga che non bastino tecnici e programmatori per capire come progettare buoni prodotti e servizi web.
Le assunzioni sono recenti, e solo nel 2009 sono cominciate a comparire le pubblicazioni di questo gruppo. Che si occupa, ora che Yahoo usa la tecnologia Bing di Microsoft per il suo motore di ricerca, di sviluppare nuovi modi per presentare le informazioni sul front-end. Insomma, di migliorare l’esperienza utente, invece della sola tecnologia.
Dalle ricerche di questo nuovo gruppo, composto da accademici di una certa fama, la conferma che i contenuti (ad esempio programmi tv) risultano più interessanti, e tengono la gente più incollata al monitor, se l’esperienza è in qualche modo condivisa con altri. C’è un maggior senso di obbligo a guardare il programma se si è con qualcuno che si è a casa da soli. Il che sulla rete può essere un problema, dato che navigare è un’esperienza solitaria.
Così è stato sviluppato Zync, un plugin per Microsoft Messengers che consente a più persone che chattano di guardare contemporaneamente un video. Nasce per risolvere un problema classico con la condivisione di video online: anche se si scambiano i link del filmato, due persone non sanno se stanno guardando il video in sincrono, cioè lo stesso fotogramma nello stesso istante, perché uno piò partire prima e l’altro dopo. Così è difficile condividere l’esperienza e fare commenti come se si fosse seduti fianco a fianco. Questo plugin consente invece a due persone che chattano di guardare lo stesso video in contemporanea nella finestra accanto a quella della chat.
Una ricerca sull’uso di queso plugin ha confermato che questi utenti chattano significativamente più a lungo e si scambiano un maggior numero di link rispetto alle chat normali. Chattare guardando un video in sincrono, assieme, pare dunque aumenti il senso di condivisione di un’esperienza, e non soltanto di un’informazione. Gli utenti sono più motivati e perdono più tempo sul contenuto, grazie anche alla possibilità di parlarsi.
Lo studio dei comportamenti dell’utente online, sia di carattere sociale che individuale, è un settore nel quale si investirà sempre di più nel futuro. Ed è un settore parzialmente differente dagli studi di usabilità (anche se usa metodi simili), perché lo scopo non è la misura di prestazioni di efficacia o efficienza in un compito, ma l’analisi delle motivazioni, di ciò che funziona o non funziona. Nell’ovvio intento, qui molto esplicito, di fornire servizi migliori all’utente, ma soprattutto più remunerativi per aziende e provider di servizi. Il che apre a nuovi dilemmi etici, oltre che a nuove possibilità professionali, per chi di mestiere studia il comportamento degli utenti e aiuta a programmare servizi e prodotti migliori.
Jared Spool, in una recente intervista su Uitrends, spiega chiaramente cosa siano e quanto costino (o debbano costare) i test di usabilità. La domanda è esplicita: I gruppi di design cercano modi rapidi ed economici per validare il design, mentre l’usabilità è percepita come molto costosa. E’ vero o no? E la risposta di Spool spicca per sintesi:
“I test di usabilità, nella forma più elementare, non costano praticamente niente. E’ un processo semplice. Ti siedi vicino a qualcuno e lo guardi mentre prova il tuo design. Ogni spesa aggiuntiva è per aggiungere rigore al processo. Il rigore non deve per forza essere costoso, ma può esserlo”.
Quindi il problema è cosa si vuole da un test, non quanto costa. Ci sono casi in cui il valore di un test, più che dal report finale, deriva dall’esperienza di osservare gli utenti comportarsi in maniera diversa da come ci si attendeva. In quei casi il test costa solo il tempo di farlo (e magari la competenza di qualcuno abituato a farlo, se non altro per evitare, come ho visto fare, di influenzare pesantemente i partecipanti e falsarne la prestazione, cosa più comune di quanto si pensi).
Ci sono casi in cui il report è l’unico modo per dimostrare le proprie scelte, per misurarle e per documentarle. Per prendere, cioè, delle decisioni di design corrette. Altri in cui solo il designer che osserva direttamente l’utente, sblocca il design nella direzione giusta, perché si vedono in azione meccanismi cognitivi, modelli mentali dell’utente che il designer non sospettava nemmeno esistessero. Si tratta insomma di diversi approcci al test di usabilità. Un po’ la distinzione fra test sommativo e formativo (ci torneremo):
il test sommativo, fatto di solito con un numero alto di utenti e un processo rigoroso di controllo delle variabili, prevede che i dati siano analizzati in maniera statisticamente rigorosa;
il test formativo invece è centrato sul processo di scoperta di problemi e soluzioni da parte dei designer, facilitato dall’uso di una o due manciate di utenti con osservazioni e dati qualitativi.
La scelta dello strumento (o della variante) da preferire, e dunque della cifra da impegnare, dipende dal perché si fa il test: ci sono ottime ragioni, e ottimi casi, per entrambi gli scenari (avevo riassunto a grandi linee le varianti più comuni in questa tabella).
E comunque, alla fine, dice Spool, se l’aspetto più importante è la spesa, è bene ricordarsi che la cosa in assoluto più economica di tutte è… fare un prodotto sbagliato: questo è veramente rapido ed economico. Brutale, forse, ma con un fondo di verità.
Spool è il fondatore di UIE e autore di diversi libri sull’usabilità e il web design.
Dopo una lunga fase di beta, è finalmente online il nuovo sito del W3C, completamente ridisegnato. Personalmente rimpiango la lunga colonna di sinistra con gli argomenti in ordine alfabetico, che rendevano le pagine che mi servivano ad un click di distanza (ora bisogna cliccare prima sulla pagina “W3C from A to Z”, che non è nemmeno presente in tutte le pagine). Per il resto l’ordine visivo ne ha certamente guadagnato.
Non hanno potuto adottare un CSS valido, per ragioni di interoperabilità
Non hanno potuto rispettare i limiti di peso del MobileOk checker
Non me ne scandalizzo, ho sempre sostenuto che ci sono molte ragioni, pratiche e teoriche, per cui le specifiche possono non essere rispettate alla lettera, specie in un mondo di browser imperfetti e di specifiche così così. Ma dovrebbe fare impressione, in casa nostra, che il sito del W3C, se fosse italiano, non rispetterebbe la legge Stanca (almeno secondo le interpretazioni più restrittive). Che sia giunto il momento per una piccola riflessione, da parte dei sostenitori della purezza del codice? Probabile. Ma non c‘è purtroppo da sperarci. Auguri al nuovo sito del W3C!