Le pagine di descrizione dei prodotti nei siti di e-commerce hanno particolare importanza. Oltre alle normali indicazioni progettuali, alcuni test di usabilità hanno evidenziato un particolare comportamento degli utenti che suggerisce di costruire alcune immagini in un modo particolare.
Le pagine di descrizione dei prodotti nei siti di e-commerce hanno particolare importanza. Se un utente non è in grado di capire e apprezzare il prodotto da quella pagina, non procederà all’acquisto.
Non usare le descrizioni originarie del produttore per descrivere il prodotto, ma personalizzarle evidenziando quello che può essere utile per il vostro utente
Eliminare il rumore visivo
Rendere sempre chiaro e facilmente disponibile la call to action, cioè in questo caso il bottone di aggiunta al carrello.
Anche le nostre vecchie indicazioni del 2004 reggono ancora. Tutte queste cose sono vere ma troppo generiche. Nei test di usabilità di incontrano spesso comportamenti degli utenti che spiazzano:
scarso uso degli strumenti di navigazione che con tanta cura avevamo progettato;
scarso utilizzo di informazioni testuali che invece avevamo con attenzione redatto;
cecità selettiva a funzioni che a noi sembravano così ovvie.
Un recente studio di usabilità di Baymard che si occupa proprio delle pagine di prodotto, identifica con chiarezza un problema che spesso vedo anch’io nei test di usabilità, non solo di pagine commerciali: la scarsa attenzione che gli utenti dedicano ai testi nelle pagine, peggiorata dalla presenza di foto che calamitano l’attenzione. Questo è particolarmente grave sulle pagine di prodotto, naturalmente.
Un’immagine vale più di 1000 elenchi puntati
Secondo lo studio, le immagini sono molto utili a dare agli utenti un’idea delle proporzioni, dei dettagli del prodotto. Riescono anche, se costruite bene, a far sembrare il prodotto attraente. Sono uno strumento talmente buono che ben il 56% degli utenti nello studio guardava come prima cosa proprio quelle.
Tuttavia le immagini nella maggior parte dei casi non rispondono a domande specifiche sul prodotto: ad esempio non dicono il peso, le dimensioni esatte, il profumo, il tessuto, in generale i materiali, la compatibilità con qualcos’altro, l’esistenza o la predisposizione per accessori.
Questi sono tutti aspetti importanti per i prodotti, e sono di solito contenuti nel testo descrittivo a fianco della foto. Oppure sotto, specialmente su mobile. Sfortunatamente, però, un pattern di comportamento molto comune è quello per cui dopo aver visto le foto, l’utente scorre rapidamente il testo descrittivo senza leggerlo, e a volte senza nemmeno espandere gli eventuali dettagli a comparsa del testo.
In tal modo, le informazioni che pure ci sono non vengono lette.
Questo è un problema spesso evidente nei test di usabilità, ma anche in situazioni di osservazione ecologica della navigazione, in contesti di vita quotidiana. Gli utenti, pur alla ricerca frenetica di informazioni o conferme alle loro domande, scorrono solo molto fugacemente i testi che le contengono, correndo così il rischio di mancarle. Lo si capisce bene quando, in alcune situazioni, a posteriori dicono che non hanno potuto trovare una certa informazione che invece era presente, in mezzo al testo.
Una soluzione parziale: immagini con l’aggiunta di testo
La soluzione proposta da Baymard al problema è quella di arricchire le immagini con informazioni testuali, che, poiché inserite nel contesto, aiutano a rispondere a dubbi e domande degli utenti. Ecco un semplice esempio:
In questa scheda le immagini fanno comprendere il tipo di lampada e l’utilizzo tipico, ma per conoscere le dimensioni e capire se queste sono adatte alla nostra stanza dovremmo consultatre la descrizione a fianco. Nel caso specifico, inoltre, l’informazione è accessibile solo cliccando su “Visualizza altri dettagli prodotto”
In questa immagine, invece, le informazioni sulle dimensioni esatte sono fornite attraverso testo presente direttamente nell’immagine, aiutando quindi a capire se il prodotto faccia al caso nostro.
L’esempio dovrebbe rendere bene l’idea, e altri esempi riguardanti frigoriferi, jeans e zaini li trovate nell’articolo originale di Baymard.
Sono tutte informazioni che sono presenti anche nelle descrizioni, ma che gli utenti trovano già guardando le immagini, riducendo il rischio di abbandono per non averle viste nel testo.
Scegliere le informazioni decisive per l’acquisto per prodotti sufficientemente generici
Uno dei problemi riguarda evidentemente la decisione su quali informazioni è importante inserire: per alcuni prodotti può essere ovvio (taglia, peso, dimensioni di accessori interni come le tasche), per altri meno: una macchina fotografica professionale ha talmente tante specifiche che è impossibile inserirle tutte in una foto. D’altra parte, questo è un genere di prodotto per esperti, i quali è più probabile cerchino nelle descrizioni le specifiche, visto che sanno esserci e sanno essere importanti.
Le indicazioni valgono dunque soprattutto per acquisti di prodotti rivolti a un pubblico non specialistico, che si acquistano ogni tanto, ma le cui caratteristiche variano grandemente: elettrodomestici, mobili, vestiti, accessori.
Il problema del mobile e altre considerazioni
L’aggiunta di testo nelle immagini porta in primo piano un’altra difficoltà: quella di costruire immagini con testi che siano ugualmente leggibili sia su desktop che su mobile. Sia la disposizione sia la leggibilità del testo deve essere adeguata in entrambe le situazioni. Solo se per ragioni di densità o di orientamento non fosse possibile rendere le immagini con testo leggibili anche su smartphone, sarà necessario mostrare immagini differenti, progettate appositamente per il dispositivo.
Si noti che questo è in qualche modo anche una specie di caso di accessibilità inversa: gli utenti che utilizzano i lettori vocali, per esempio, è più probabile leggano proprio il testo, anziché le descrizioni (se presenti) delle foto. Quel tipo di utente ha in questo caso addirittura un vantaggio rispetto a chi usa la modalità visiva, perché ha minori probabilità di essere distratto dalle immagini. Oltre ad avere in media una maggior abitudine all’elaborazione rapida di molte informazioni verbali.
Un problema che va oltre le sole immagini, da verificare in ogni tipo di sito
Un’ultima considerazione: ci sono ovviamente molti altri aspetti importanti delle pagine di prodotto:
l’accesso e l’ordinamento dei giudizi degli altri acquirenti,
la stratificazione delle informazioni in schede o tab a comparsa,
la presentazione di bundle o prodotti correlati
Ma il fatto che le informazioni testuali vengano spesso mancate, pur se presenti, costituisce a mio parere un problema di usabilità e comprensibilità enorme, che va preso in esame prima degli altri, perché vanifica anche una progettazione altrimenti a regola d’arte.
Si potrebbe pensare che questo fenomeno di “sorvolamento delle informazioni presenti” sia colpa delle sole immagini, che calamitano l’attenzione distogliendola dal testo, e forse una certa quota del comportamento è ascrivibile anche a questo. Ma, come ho detto, il comportamento si osserva in qualunque tipo di pagine nei test. Sia in quelle inframmezzate da foto, che nei cosiddetti “muri di testo”, ed è forse più legata al tipo di task che viene richiesto.
La questione merita verifiche anche sperimentali più approfondite, ma una ipotesi potrebbe infatti essere che sia l’orientamento al compito (ricerca, acquisto, transazione immediata) a indurre un comportamento di scorrimento rapido e poco preciso dei testi. Lo scopo finale infatti non sarebbe quello di comprendere il testo, ma solo decidere sull’acquisto o sulla transazione. Oppure quello di trovare un’informazione puntuale.
Le attività di comprensione prevedono immersione nel testo, perché lo scopo è proprio capire cosa il testo dica, frase dopo frase, formando una rappresentazione coerente del significato complessivo. Ma in molte attività sul web semplicemente non ci interessa questo. Non se ne deve concludere che la gente non legga sul web in assoluto, ma che non c’è alcuna garanzia che legga quando sta tentando di adempiere a un’attività pratica, tipo acquistare.
Lo studio dei contesti di utilizzo del web (e del computer/smartphone in generale) è in realtà poco sviluppata, e meriterebbe probabilmente migliori approfondimenti. Una vecchia ma ancora valida introduzione al tema, per chi fosse interessato, è reperibile in questo articolo del 2001 di Maguire.
Tempo fa ho parlato di interfacce ingannevoli, che riflettevano algoritmi i cui effetti andavano a detrimento dell’utente, mentre facevano guadagnare in modo fraudolento il gestore del servizio.
La newsletter Guerre di Rete di Carola Frediani ci porta all’attenzione un nuovo caso, più sottile ma dalle forti implicazioni sul piano etico, commerciale, dei controlli. È quello degli algoritmi che le compagnie aeree utilizzano per decidere se far sedere assieme i membri di un gruppo o di una famiglia.
Il caso: passeggeri separati in volo
A partire dal 2017 la Civil Aviation Authority britannica, una agenzia di regolamentazione sull’aviazione civile corrispondente alla nostra Enac, ha intrapreso un’indagine per capire se tali algoritmi possano nuocere agli interessi della collettività. Ad esempio, separando i minori dai genitori, o i passeggeri con bisogni speciali dal proprio assistente. Le conseguenze in caso di evacuazione di sicurezza potrebbero danneggiare tutti, perché difficilmente durante un’emergenza un genitore lontano dal proprio figlio eviterebbe di cercarlo, con il rischio di ostacolare le operazioni.
L’indagine è stata condotta sia chiedendo informazioni sugli algoritmi usati da 10 diverse compagnie aeree; sia monitorandone gli esiti, attraverso un questionario su oltre 4000 persone che avevano volato in gruppo con le diverse compagnie.
Gli esiti attestano come minimo che le diverse compagnie utilizzano metodi diversi per decidere l’allocazione dei posti. I componenti di gruppi che non avevano pagato per la scelta del posto si sono trovate con probabilità molto diverse fra loro di finire separate. Ryanair è la compagnia dove questo capita più spesso, il 35% dei casi nel sondaggio. Seguita da Emirates con il 22%. Agli ultimi posti Flybe, Monarch Airlines e TUI Airlines, con il 12% di probabilità di volare separati. Il riassunto dei risultati è disponibile in questa pagina.
Il problema dell’algoritmo
Che compagnie diverse utilizzino algoritmi differenti di assegnazione dei posti (per chi non paga la scelta) è confermato anche dalle informazioni fornite dalle compagnie stesse. La cosa interessante però è che nessuna compagnia afferma di voler separare di proposito i gruppi. Anzi: tutte dichiarano di adottare strategie per tentare di metterli assieme, solo che in determinate condizioni questo è difficile o impossibile.
Il fatto che una compagnia low-cost come Ryanair abbia un tasso di separazione più alto, non è visto dalla compagnia come un tentativo di guadagnare di più facendo pagare a parte il servizio, ma come semplice effetto di tempistiche di prenotazione differenti, diversificazione delle tariffe, ecc.
Ma anche se non vogliono esplicitamente separare le famiglie, il modo in cui le compagnie pesano i vari fattori di scelta nell’algoritmo automatico e nei controlli manuali ha risultati decisamente diversi. Potremmo dire che i diversi algoritmi hanno dei bias diversi.
Monitorare gli algoritmi significa monitorarne gli esiti
Chiunque programmi sa che il peso che si dà a qualunque variabile in un algoritmo decisionale opera distorsioni. L’indagine del CAA lo mostra con particolare evidenza. E mostra con particolare evidenza anche come esista un problema di trasparenza di queste pratiche.
Le compagnie hanno tutte risposto alle domande dell’ente di regolazione, ma se si fosse basato solo su quelle risposte, l’ente non sarebbe stato in grado di evidenziare differenze specifiche nei risultati. Le dichiarazioni infatti sono quasi sempre nel senso del tentativo di favorire l’allocazione vicina per i posti dei gruppi.
Dunque è solo con un monitoraggio degli esiti (benché con strumento inevitabilmente imperfetto come un questionario a campione) che si possono evidenziare asimmetrie.
A questo punto, il CAA metterà a punto un framework di buone pratiche e di indicazioni su come migliorare questi esiti, proprio per la tutela del bene comune, pur considerando lecite in alcuni casi le differenziazioni tariffarie che le compagnie operano. L’adozione del framework dovrà poi nuovamente essere valutato sia con nuovi contatti con le compagnie aeree che dovranno dire cosa hanno cambiato e implementato nei loro algoritmi, sia con nuovi monitoraggi degli esiti.
Ma, e qui sta il problema, non vi è nemmeno certezza del contrario. Il fatto che alcune compagnie abbiano tassi di separazione così più alti di altre potrebbe essere frutto:
del caso;
di un algoritmo tarato male;
o di un algoritmo che mira semplicemente ad ottimizzare i guadagni;
di una precisa intenzione.
Il punto è che a priori non lo sappiamo. Forse non lo sanno neanche le compagnie stesse…
I controlli dunque in questi settori sono particolarmente importanti. E non possono che essere svolti da organismi e autorità indipendenti. Con metodi vari: sia con la possibilità di accedere a informazioni dirette sul funzionamento degli algoritmi, sia, come detto, verificandone gli esiti sui grandi numeri.
I controlli degli algoritmi sono un’esternalità negativa
Questo vale e varrà sempre di più in un mondo dominato da scelte automatizzate. Le procedure di monitoraggio sono però onerose. E a fronte dei miglioramenti di efficienza che molti settori traggono dall’applicazione di algoritmi, non si può non vedere l’aggravio di costo sociale.
Non solo gli effetti di algoritmi sbagliati o fraudolenti, ma anche i costi dei controlli vengono al momento scaricati sulla collettività, su authority pubbliche o anche private che devono essere finanziate, e che comunque rischiano di arrivare a danno fatto, fotografando sempre il passato e venendo superate dagli eventi.
Di costi sociali avevamo già parlato qui in relazione a Facebook, e tutto lascia intendere che dovremo parlarne ancora, nel futuro. Sia che l’intento degli erogatori dei servizi sia fraudolento, sia che non lo sia: il problema è nell’essenza stessa della scatola nera, e del mero orientamento all’obiettivo che l’azienda si dà.
Un tema che tuttavia rischia di sfuggire ai regolatori, come la dichiarazione allarmata ma semplificata del ministro britannico dimostra. Vedremo come questo Centro per l’etica dei Dati e dell’Innovazione funzionerà. In attesa che qualcosa si muova anche qui sul versante del monitoraggio di questo genere di problemi, sarà bene che tutti iniziamo a pensarci.
1 Il ministro si spinge ad affermare, come fosse acclarato, che le compagnie “controllano i cognomi”… dei passeggeri per poi separarli apposta. Non era mia intenzione fare fact-checking sulle dichiarazioni di un ministro di un altro Paese, ma solo capire come funzionano effettivamente questi algoritmi. E devo dire che nel report di CAA non sono riusciuto a trovare alcuna evidenza che gli algoritmi controllino effettivamente i cognomi, men che meno con l’intenzione di separarli. Invece, questa appare una soggettiva convinzione di uno dei rispondenti allo studio, che afferma, letteralmente: “We assumed children would be allocated a seat with their parents…It is easy to check family name and age of traveller, to ensure a child sits with their parent. For this reason I am convinced we were deliberately separated, to force us to pay.”. Non è mia intenzione nemmeno difendere le compagnie aeree, ma se la fonte del ministro è questa, o le sue affermazioni sono state riportate scorrettamente, o è una dichiarazione che non trova riscontro nella ricerca. Ma questo ha consentito a The Independent di farci il titolo…
I risultati – per il 70% riferiti al mondo anglosasssone – sono presentati in serie storica, comparandoli con quelli analoghi del 2011, del 2014 e del 2016. Nel tempo il metodo di campionamento degli studi è tuttavia cambiato, quindi i risultati non sono perfettamente sovrapponibili. Ma è utile per capire i trend, pur con i limiti di cui sopra, anche perché è probabile che influenzino il resto del mondo, tra cui l’Italia.
1) Meno analisi dei requisiti
Tra i trend, purtroppo, spicca il calo delle attività legate all’analisi dei requisiti, quella che dovrebbe stare alla base di ogni progetto e che comprende attività come la scrittura di Personas e profili utente, l’analisi dei requisiti, gli studi etnografici e la task analysis.
Queste attività sono tutte in calo tranne le personas/user profiles. Il che significa, purtroppo, che si scriviamo molte storie su personaggi immaginari, poco basati su dati reali. Questo trend è anche un tradimento delle indicazioni di Cooper, che è fra gli inventori delle Personas, e che sottolineava come i profili e le personas descritte devono essere definiti a partire da dati reali.
Si tratta un po’ quindi di un tradimento della pare U, User, dell’etichetta UX.
2) Più visual design
Al contrario, fra i trend di crescita vediamo quelli legati a prototipazione e visual design. E’ un po’ l’indicazione che il settore stia diventando sempre più un settore che fa progettazione, ma… di tipo tradizionale. Cioè quella che faceva una volta il cosiddetto “web designer”. Si fanno i disegni ad alta fedeltà delle schermate. Magari con strumenti nuovi e in rete: ma è un’attività davvero vecchia, solo con un’etichetta nuova.
3) Buona tenuta dell’accessibilità
In crescita – benché sempre marginali, solo il 20% di menzione nelle risposte – le attività legate all’accessibilità, sia con analisi esperte che attraverso i test con utenti disabili. Probabilmente è legato alla revisione delle WCAG (prima con la versione 2.0 e ora con la versione 2.1) e della sec.508 negli USA In Italia le norme sono state aggiornate alla 2.0 prima e alla 2.1 di recente, con tempismo decisamente migliore rispetto al passato.
4) Più design thinking per tutti
Infine, tra i trend interessanti la crescita delle attività strategiche, che nel 2011 nemmeno venivano menzionate. Consulenza strategica e design thinking, soprattutto, che da qualche anno è una buzzword anche da noi e denota un insieme di approcci ai problemi progettuali divergente e laterale, per affrontare in maniera strutturata le diverse fasi e i problemi.
Che ne pensate? Si vedono gli stessi trend anche in Italia? E soprattutto, cosa fare per recuperare l’orientamento all’utente che la UX da questi dati sembra in parte perdere? Lasciatecelo scritto, se volete, nei commenti.
Nel nuovo articolo di Usabile.it parliamo di learnability. Una delle caratteristiche di cui si compone l’usabilità… forse. Sì, perché le cose possono cambiare a seconda del modo in cui intendiamo questa caratteristica. Buona lettura.
In alcune definizioni la learnability – tradotta come “apprendibilità” o “facilità di apprendimento” – è considerata una delle sottocaratteristiche dell’usabilità. Per esempio, nella definizione di Nielsen. O anche nella definizione della norma ISO/IEC 25010, licenziata nel 2011 e che sostituisce la storica ISO/IEC 9126 (che comunque già all’epoca a sua volta includeva pure la learnability come dimensione dell’usabilità).
In questi casi, la learnability viene definita grosso modo come…
la facilità per gli utenti di eseguire un task con il sito o il sistema al primo tentativo.
La ISO/IEC 25010 dà ora una definizione un po’ più contorta, ma riguarda sempre la facilità di apprendere l’uso di un sistema con efficacia efficienza e soddisfazione in determinati contesti.
Il problema della sovrapposizione fra usabilità e facilità di apprendimento
Da ciò emerge come molto spesso nei test di usabilità si stia di fatto valutando la learnability. Se l’utente riesce a capire subito come fare a eseguire i compiti che gli vengono proposti su un’interfaccia con la quale non ha familiarità, allora il sistema è facile da apprendere e anche usabile. Se invece impiega diversi tentativi e commette diversi errori, è meno facile da apprendere e meno usabile.
Il problema con questa definizione è che appunto in molte circostanze si sovrappone all’usabilità, nonostante formalmente come visto le sia subordinata, e non è quindi particolarmente utile. Anzi, è confusiva.
La realtà, che conosciamo bene, è che la gente su molti sistemi impara. In molti sistemi complessi è persino previsto un periodo di training. Quindi per tali sistemi (app, webapp, siti e servizi online, software di back-office per operatori specialistici in vari settori, dal finanziario, al medico, all’amministrativo) il primo approccio non è sempre quello migliore per valutare l’usabilità del sistema, almeno non dal punto di vista della produttività futura.
Certo, per siti di pubblico dominio, dove l’utente non è vincolato all’uso e dove l’uso non è ripetuto, avere una ottima learnability, cioè una capacità di trovare le informazioni ed eseguire compiti al primo tentativo, è importante, ed è per questo che spesso nei test di usabilità si valuta proprio quello, anche senza consentire un periodo di addestramento al sistema. Il primo sguardo, il primo impatto è in quei casi quello che ci interessa valutare. Ma non è sempre così.
L’apprendimento nel tempo: un secondo significato per la learnability
Come correttamente ci ricorda Jeff Sauro, infatti, nei sistemi che prevedono addestramento questa accezione di learnabilitynon è adeguata. Ne esiste infatti un’altra:
la capacità di un sistema di consentire di migliorare efficacia, efficienza e soddisfazione di un utente che esegue un compito nel tempo.
Usabilità nel tempo, insomma.
Si può valutare quindi come migliora la prestazione (in termini di efficacia, di tempo, o di numero di click per svolgere lo stesso compito, ad esempio) per lo stesso compito, in prove successive ripetute dagli stessi operatori a distanza di tempo.
E sappiamo che, in applicazioni complesse, con l’abitudine all’uso si riduce il tempo di esecuzione dei task e aumenta la loro accuratezza. Questi miglioramenti seguono la power law of practice. La legge suggerisce che l’apprendimento progressivo non avviene a un ritmo costante, ma segue un andamento che alcuni autori descrivono come logaritmico e altri (criticandoli) come esponenziale. Tralasciando i dettagli matematici1, significa semplicemente che se si impara in tempi relativamente rapidi la metà delle funzioni di un sistema, servirà un tempo più alto per imparare l’altra metà. Una discussione più dettagliata della curva di apprendimento è su wikipedia.
Man mano che impariamo, quindi, il tempo necessario per imparare la parte rimanente (di un sistema, di un argomento) aumenta, invece che diminuire.
Il paradosso della curva di apprendimento ripida
È interessante notare che quando si parla di “curva di apprendimento ripida” si intende qualcosa del genere, sebbene nel senso comune il significato inteso sia l’opposto. In una curva di apprendimento ripida, a essere ripida è la parte iniziale della curva, che indica il livello di apprendimento nel tempo.
In questa curva viene rappresentato il livello di apprendimento o di accuratezza di una prestazione, nel tempo, indicato in tentativi successivi.
Questa curva ripida indica però che il livello di apprendimento migliora rapidamente all’inizio, per poi rallentare (gli incrementi sono minori con l’aumentare dei successivi tentativi). Invece nel senso comune con “curva di apprendimento ripida” si intende una materia o un’attività molto difficile da approcciare, complessa, che richiede molto impegno e fatica all’inizio. E che non è affatto rappresentata da questa curva!
Per quanto riguarda i tempi di esecuzione in tentativi successivi, se i miglioramenti sono rapidi nei primi tentativi, sono ben esemplificati da una curva di questo tipo:
In questa curva viene indicato il tempo di esecuzione nel tempo, ovvero in tentativi successivi.
Dopo i primi miglioramenti, la curva (ripida, ma in discesa) si addolcisce, e i miglioramenti nel tempo di esecuzione sono più limitati. D’altra parte, come è ovvio, con l’esperienza non si fa che avvicinarsi al tempo di esecuzione ottimale, che costituisce il limite definitivo.
Prestazione e valutazione soggettiva
Da dati riportati dallo stesso Sauro, non solo gli utenti “esperti” o power user – quindi che hanno una ripetuta storia di utilizzo del prodotto – mostrano efficacia ed efficienza maggiore nell’eseguire gli stessi compiti, ma danno anche valutazioni migliori del prodotto rispetto ai novizi. Questa è anche la mia esperienza. Addirittura, Sauro parla solo dell’usabilità percepita, mentre alcuni miei dati segnalano anche un aumento della valutazione da 0 a 10 nel Likelyhood To Recommend e nel Net Promoter Score di pari passo con l’apprendimento del sistema. Questo potrebbe non applicarsi a tutti i casi e a tutti i prodotti, ed è semmai qualcosa da analizzare in ogni progetto, per capire eventualmente perché accade o non accade.
Cosa significa tutto questo per i test di usabilità
L’esistenza di queste due accezioni del termine “learnability” in generale significa che nei nostri test di usabilità dovremmo, di volta in volta, decidere qual è l’approccio alla valutazione più adatto al tipo di sistema. E anche alla conseguente valutazione di efficacia, efficienza e soddisfazione. Ad esempio, misurando il tasso di efficacia e i tempi di esecuzione degli stessi task in sessioni ripetute nel tempo, man mano che gli utenti usano il sistema (o passano da un prototipo ad un più raffinato ad una versione sempre più funzionante, se si lavora in fase di sviluppo). È una delle rare situazioni in cui è anche possibile utilizzare gli stessi utenti in test differenti, per esempio: perché lo scopo è proprio valutare il miglioramento nel tempo.
Non solo: la velocità di apprendimento può essere al centro anche di una serie di test di usabilità su prodotti simili ma differenti, ad esempio una serie di tool che svolgono le stesse funzioni e fra i quali, magari, si vuole scegliere. In quei casi è bene che il panel di partecipanti ai test sia diverso per evitare effetti di interferenza fra un tool e l’altro, anche se questa accortezza non è sempre possibile e addirittura consigliabile2.
Come si vede le variabili in gioco si moltiplicano ed è proprio per questo che serve una valutazione professionale adeguata del piano di test più appropriato alla situazione.
In definitiva, la facilità di apprendimento è un tema da tenere sempre presente in ogni tipo di test: sia quando questa corrisponde di fatto all’usabilità (nei siti e nelle applicazioni di uso occasionale), sia quando sottende un apprendimento nel tempo. Diverse modalità di pianificazione dei test sono di conseguenza possibili, purché tengano in adeguata considerazione tutti questi aspetti.
1 Si tratta di due modi di fare curve fitting, cioè di dedurre dai dati empirici quale funzione teorica spieghi meglio i dati. Se dico che non è importante qui, è perché ciò che conta è l’andamento dei dati empirici, che può ovviamente essere modellata meglio o peggio da alcune leggi matematiche. Non è la precisione del modello che importa nella pratica lavorativa, quanto il suo senso generale.
2 Per avere un panel diverso, si potrebbe optare per utenti giovani che entrano nel mondo del lavoro ora. Ma in quel caso entrerebbero in gioco variabili di expertise con lo strumento informatico che andrebbero ulteriormente tenute in conto… insomma, la questione si complica e richiede un’attenta valutazione.
Cos’è: Una mia supervisione/affiancamento al team nelle diverse fasi di un progetto, per aiutarvi a scegliere l’approccio e le tecniche migliori per massimizzare i risultati dal punto di vista dell’usabilità, all’interno dei vincoli esistenti.
Sì, ma… chi sei? Maurizio Boscarol. Sono uno psicologo cognitivo e un’informatico, mi occupo di usabilità e interaction-design da vent’anni, e sono il responsabile di questo sito.
Cosa comporta: È un’attività composta da molte attività, e dipende dal progetto. Alcuni esempi:
Partecipare ad alcune riunioni (eventualmente, ma non è necessario, moderarle) con il responsabile del team o con altri stakeholder, evidenziare possibili strade che tengano conto dei vincoli di progetto.
Valutare assieme a voi quale tipo di ricerca con gli utenti portare avanti e quando. Ad esempio…
…Aiutare a stabilire se è utile svolgere dei test di usabilità, di quale tipo, e in quale momento. Con quali accortezze e con quali dati da rilevare, e cosa dedurre dai risultati.
…O se invece sia più utile svolgere analisi ispettive o addirittura assessment formali del prodotto secondo, ad esempio, la metodologia GOMS (utile per capire se un prodotto nuovo che sostituisce il vecchio è migliorativo in termini di velocità d’esecuzione, per esempio, senza dover ricorrrere ad utenti).
Suggerire o orientare o (se lo volete) validare alcune scelte sia relative alla grafica, che ai testi, che all’accessibilità.
Rivedere assieme a voi testi, grafiche, wireframe e ogni tipo di deliverable per migliorarne l’orientamento alla facilità d’uso.
Svolgere giornate formative o workshop per allineare il team si alcuni aspetti del progetto.
Definire di guide di stile o standard interni.
È un’attività in presenza o da remoto? Dipende. Alcune attività in presenza (ad esempio riunioni) altre da remoto (supervisioni, produzione o correzione di wireframe e bozze grafiche, testi, ecc.). Si decide caso per caso.
Come si valuta il costo di un servizio del genere? A giornata. Anzi, a pacchetti di giornate, da un minimo di 10 a crescere. Questi serviranno sia a coprire eventuali riunioni in presenza che il lavoro da remoto. Il pacchetto parte da 10 perché una supervisione deve avere il tempo di entrare nel progetto, capirlo, e questo richiede sia la partecipazione a incontri che l’analisi di materiale che potreste dovermi inviare.
E poi? Al termine delle giornate pattuite il lavoro potrà considerarsi concluso oppure potrà evidenziarsi la necessità di aggiungerne altre. Dipende dal progetto, ma lo deciderete voi, o comunque assieme.
In altre parole: Possiamo pensarlo come un modo per garantire uno sguardo terzo sul vostro progetto da parte di un professionista con (ahimè) vent’anni di esperienza e di casi visti, a un costo limitato rispetto al budget dell’intero progetto, e con lo scopo di evitare alcuni errori che inevitabilmente nel corso di un lavoro, per fretta o vincoli esterni, si commettono, o semplicemente perché magari due teste pensano meglio di una, e tre pensano meglio di due.
Sono naturalmente abituato a tener conto dei vincoli, e mi rendo conto quando una proposta diventa irrealistica in un determinato progetto. Oltre a proporre la strada ideale, discuteremo assieme anche delle possibili “migliori alternative”.
Mi sembra una buona idea: chiederò all’azienda che ha vinto l’appalto di metterti sotto contratto. Ecco: no. Stabiliamo subito che la supervisione è rivolta a chi la richiede (sia il committente del progetto o l’azienda che ha vinto l’appalto, ma solo se lo ritiene utile lei, non perché qualcuno glielo impone). È una libera scelta, e non deve essere imposta, altrimenti chi se la vede imporre tenderà a essere poco collaborativo, anche se magari non ne avrebbe motivo.
Il rapporto è fiduciario, rispondo a chi mi contrattualizza, e non posso farlo in libertà se a contrattualizzarmi è qualcuno spinto da un terzo. Patti chiari, amicizia lunga. Problemi di budget, di filoni di spesa, di burocrazia, ecc? Parliamone, si possono trovare soluzioni, ma farmi contrattualizzare da chi non lo ha scelto non è una buona idea.
Di recente un articolo di Cory Doctorow, scrittore di fantascienza, ricercatore esperto e molto noto sui temi delle nuove tecnologie, ha pubblicato un articolo che a mio parere chiude definitivamente il dibattito sulle cosiddette fake news, e lo riorienta in modo più opportuno.
L’articolo è stato tradotto qui da Paolo Attivissimo, quindi potete scegliere fra l’originale e la traduzione italiana: non ci sono scuse, leggetelo.
In sintesi provo a dire, con qualche divagazione mia, cosa mi ha convinto dell’articolo:
Anzitutto, e finalmente, qualcuno prende sul serio il fenomeno delle fake news per quello che è. Pur rispettando le articolate conclusioni del Consiglio d’Europa sull’Information Disorder, ovvero sull’analisi ultracomplessa di tutte le disfunzioni informative nel mercato dei media, tradizionali e non, le fake news sono un fenomeno peculiare e reale, come i dati dimostrano, a volerli leggere. Ho provato a dirlo qui, e lo ripeto: si tratta di siti nati apposta per diffondere notizie false, in particolare in corrispondenza di eventi specifici (elezioni, referendum), che non sono interessati al reach né alla qualità giornalistica e che non potrebbero esistere senza la diffusione mirata garantita da un’economica strategia social.
Secondo, riconosce che il ruolo dei social (e Facebook, per dimensione ma anche, come dice Doctorow, per altre colpe specifiche) è determinante. Nel mondo dei media tradizionali, infatti, per mettere insieme un giornale e orientare così l’informazione, bisogna fare un investimento cospicuo, guadagnarsi almeno una residua credibilità presso un pubblico anche di nicchia che garantisca vendite o introiti pubblicitari, e solo poi si riescono a scrivere articoli faziosi e orientati, che, tuttavia, devono in qualche modo resistere allo scrutinio di un pur disastrato ordine professionale e – ultima ratio, ma in realtà la prima – alle leggi di un Paese. Con i social, questa onerosa trafila non è più necessaria. Così come è molto più facile sfuggire anche al controllo legale. Si mette su un sito di parvenza semiprofessionale con WordPress, anche dall’estero, e senza registrarsi come testata giornalistica. Poi basta un’unica persona dedicata e un minimo investimento in campagne di microtargeting su Facebook, per ottenere una circolazione delle proprie notizie come quella che abbiamo visto qui (tip: in Francia sono più creduloni che da noi). Il tutto, solo per il periodo che serve.
Bonus track: questo è disponibile anche per inserzionisti esteri. Il che significa che, se funziona, un operatore straniero può agire in relativa economia per parlare a un segmento specifico di pubblico. Invece per un operatore straniero è molto più difficile e oneroso influenzare la linea dei giornali. Questo aspetto non è quasi mai stato sottolineato in Italia, mentre negli Stati Uniti ce l’hanno ben presente, ed è proprio fra gli aspetti che preoccupano di più. Da noi evidentemente l’ingerenza estera si dà comunque per scontata…
In pratica, i social e Facebook in particolare rendono semplicemente molto facile (ed economico) indirizzare i propri messaggi a specifici gruppi di persone, in un modo che prima richiedeva molto maggiore investimento. E, se queste persone – dice Doctorow – appartengono a quelli che prima nelle elezioni si astenevano, perché di opinioni più estreme di quelle rappresentate dai partiti tradizionali, ora sentono che le proprie opinioni sono espresse da qualcuno e, tramite la validazione sociale dei like e degli share, pensano di non essere più soli e addirittura di poter far parte di un movimento, di avere riprova sociale. Avevamo ipotizzato proprio questo meccanismo di rafforzamento e di attivazione delle proprie idee in questo articolo dedicato a Facebook e Cambridge Analytica.
Doctorow dice che Facebook non è un raggio mentale per far cambiare le opinioni alla gente. Non serve: serve semplicemente a motivare e a spingere alla partecipazione alcuni estremisti che prima non partecipavano. In elezioni giocate su scarti minimi di voti, è sufficiente questo. E grazie al social di Zuckerberg, è possibile parlare a quelle persone, e proprio a quelle. (Prevengo l’obiezione: ma il microtargeting non è così preciso. Bene, ma anche se i messaggi sono visti da qualcuno che non è d’accordo, verrano ignorati e al massimo non avranno effetto; mentre verranno ricondivisi nella cerchia dei più convinti, ad esempio tra i maschi bianchi di possibili simpatie suprematiste tra i 30 e i 50 anni…).
Quindi il microtargeting non ha cambiato quello che le persone pensano: ha convinto estremisti e razzisti, che prima si sentivano esclusi, a partecipare. Questo, in presenza di un candidato che non si fa remore a esprimere posizioni razziste ed estremiste, ha fatto la differenza.
Anche perché non ha perso buona parte dei non razzisti, vien da dire: ma su questo aspetto bisognerà tornare a parte.
L’etica e la privacy: perché tutto ritorna al solito vecchio dibattito che non appassiona la ggente
Doctorow ne fa, come suo costume, un problema di etica. Dice senza mezzi termini che Facebook ha prima accumulato “dossier” su tutti i suoi iscritti (i dossier sono i dati che possiedono sui nostri gusti e comportamenti). Poi, siccome singolarmente questi dossier non valgono poi molto, ha deciso di aggregarli e venderli al miglior offerente, senza alcun filtro. Solo per guadagnarci una manciata di dollari: costano infatti abbastanza poco queste campagne targetizzate.
Probabilmente la questione è più complessa di così, perché a Facebook parte di quei dati sono stati trafugati: ma il furto era talmente semplice da non farlo sembrare un furto neanche al ladro, e il derubato si è talmente poco preoccupato che non ha fatto mai alcuna denuncia, limitandosi a cambiare la serratura… un anno dopo!
Valiamo poco e sporchiamo molto: per quello i costi ce li scaricano e i guadagni se li tengono
La questione di etica, insomma, c’è. Doctorow dice che i nostri dati, che singolarmente valgono pochissimo, sono stati usati come stracci che, imbevuti di petrolio, stanno incendiando il pozzo delle nostre democrazie. Un caso di capitalismo di rapina: privatizza pochi margini di utile (il poco che Facebook si guadagna dalle singole campagne sui nostri dati) scaricandone gli effetti nocivi sulla collettività. Come un’industria inquinante scarica i suoi rifiuti nei torrenti: tanto a basse concentrazioni prima che se ne accorgano passeranno anni.
Doctorow fa risalire il problema a quello dell’invasività di quella piattaforme rispetto alla nostra privacy (non ci è veramente data la possibilità di sottrarci a questa raccolta) e poi alla scarsa etica nella gestione aziendale: i dati sono rubabili, i profili hackerabili, utilizzabili da governi autoritari per perseguire gli oppositori. Insomma, sono gestiti dall’azienda di Zuckerberg con estrema spregiudicatezza. Nonostante questo, sembra che riesca facilmente a tenersi i vantaggi e a scaricare con facilità i costi sulla comunità.
Ve l’ho detto, un articolo interessante. Qui ho fatto un mio commento in relazione a ciò di cui avevamo già parlato, ma vale la pena leggerlo con attenzione, comunque la pensiate.
Ha generato poca enfasi, e quasi sempre partigiana (a parte il tentativo più equilibrato di Valigia Blu), la ricerca di Reuters Institute for Study of Journalism sulle Fake News.
La ricerca è scaricabile qui, in una pagina dove si anticipano per punti i principali risultati. I giornali e i siti indipendenti che l’hanno ripresa titolano più o meno:
“Le fake news raggiungono (solo) il 3% di italiani online”
Ehm, no. Quella è solo la portata, o reach, o percentuale di navigatori raggiunta, delle testate classificate come generatrici di notizie esplicitamente false.
La stessa pagina che presenta la ricerca, infatti, nota che c’è qualcosa che non va. Ed è il numero di interazioni sui social media che le fake news ottengono. Pur partendo da un reach così basso.
Le peculiarità delle news “fake”
Ed è proprio questo il fatto rilevante. Infatti:
È del tutto logico che siti privi di reputazione, nati magari in periodi di campagna elettorale solo per alimentare notizie falsate abbiano un reach basso. Siti come metogiornale.it sono del tutto sconosciuti, rispetto a repubblica.it! Non ci aspetteremo che la gente li visiti in quantità paragonabile? Quello che non è logico è che abbiano una circolazione social così alta!
Se non ci fossero i social media, questi siti non esisterebbero. Infatti il modo in cui i contenuti fasulli vengono condivisi non prevede affatto che le persone leggano gli articoli! Questo perché puntano esclusivamente sulla condivisione social, dove a raggiungere i lettori sono spesso solo il titolo e l’immagine. Diverse ricerche segnalano che spesso mettiamo like o condividiamo notizie sui social senza nemmeno averci cliccato. Le fake news capitalizzano su questa tendenza, non sul reach delle fonti originali1!
A chi dice che le fake news non esistono, e che tutti i media disinformano, si può dunque rispondere che, se in generale può essere vero, è diverso il modo e i limiti all’interno dei quali gli outlet “fake” lo fanno.
I siti che la ricerca classifica come “fake” a volte non sono nemmeno testate giornalistiche, e talvolta non sono nemmeno registrati nel Paese nella cui lingua operano. I siti di giornali invece, oltre a essere testate giornalistiche, hanno di solito una storia, devono anche vendere copie cartacee o abbonamenti digitali, operano all’interno di un pur migliorabile quadro deontologico, e rispondono di ciò che scrivono. Le loro manipolazioni e falsificazioni devono dunque essere prodotte attraverso limiti maggiori, e, piuttosto che scrivere notizie apertamente false, si prediligono artifici retorici, framing, allusioni, ecc (anche se purtroppo non mancano casi di bufale vere e proprie).
Ai siti di fake news può bastare un buon titolo rigorosamente fasullo e una strategia social2.
Le fake news che sfruttano i social sono qualitativamente diverse da quelle dei media tradizionali
Una obiezione possibile è che le condivisioni le cercano e le ottengono tutti, anche i siti tradizionali. È vero, ma questi grafici dovrebbero chiarire che si tratta un meccanismo sfruttato particolarmente bene dalle fonti “fake”:
I due grafici, tratti dalla ricerca Reuters, confrontano il reach mensile dei siti considerati (quelli classificati come fonti di fake news sono in blu scuro, nella “coda lunga”) in alto, e le loro interazioni Facebook, in basso. Già questo confronto mostra come l’interazione di alcuni siti che non hanno quasi reach sul proprio sito sia molto più alta sul social, superando in particolare le interazioni di Rainews. Potete aprire le immagini in un’altra scheda per poterle leggere con maggior facilità
Letta così, dunque la ricerca è molto più utile, perché ci dice qualcosa dei meccanismi comportamentali che senza i social media non esisterebbero, o almeno non su questa scala.
Può questo fenomeno aiutare a definire meglio diverse tipologie di fake news? Non da solo, ma può probabilmente aiutare a circoscrivere meglio il fenomeno, aiutando così anche a evitare normative censorie (come quella contro cui si stanno mobilitando attivisti per i diritti umani in Malesia, per esempio) prodotte magari proprio sfruttando la confusione sul tema, ma con ben altri scopi.
L’eterna partita fra Francia e Italia
Semmai, la seconda notizia sorprendente è che le interazioni delle false notizie sui social è maggiore in Francia di quanto lo sia stata in Italia, dove hanno superato solo le interazioni della testata RaiNews. Dunque, siamo un popolo meno sensibile alle fake news dei francesi?
Le interazioni social dei siti di fake news francesi superano cumulativamente di gran lunga quelle dei siti di news francesi. Il confronto è con la seconda immagine italiana vista sopra. Ed è abbastanza impressionante, a dirla tutta.
Comunque guardando i dati e senza altre considerazioni non emerge un’immagine di popolazione italiana particolarmente “boccalona”. Anzi. Ma una specificità di funzionamento di questo genere di false notizie sì!
Direzioni di ricerca future
Quello che i dati non ci dicono è perché queste notizie generano maggiori interazioni. È probabile non dipenda da un unico fattore: non basta il titolo civetta o la presenza di una persona dedicata a gestire una strategia social. Le persone dedicate le hanno tutti (be’, forse non a Rainews…), le capacità anche, eppure questo genere di notizie viene condivisa meglio: capire quali aspetti generano questa maggior condivisione è uno degli obiettivi della ricerca futura.
Ma è certo che il reach non è la metrica migliore per dire che le fake news “non hanno impatto”. Non sono mai state pensate per quello.
1 Alcune di queste fonti non sono nemmeno testate giornalistiche!
2 Il Consiglio d’Europa propone di parlare non di fake news ma di un fenomeno più sfaccettato di information disorder (qui riassunto da Scienza in Rete). A me questo approccio spaventa di più, perché mette assieme appunto fenomeni diversi, che andrebbero invece distinti ed eventualmente normati per quello che sono, evitando di confonderli. Quanto meno userei un nome specifico per le notizie deliberatamente false e da fonti che non rispondono giornalisticamente di quanto scritto e che riescono a suscitare più attenzione di quanta ne generino le fonti originali attraverso il circuito dei social media, appunto.
Il nuovo articolo sulla progettazione delle interfacce è sull’avversione alla perdita. Un fenomeno scoperto negli anni ’70 da due psicologi cognitivi, Kahneman e Tversky, e che ha influenzato economia, marketing e progettazione.