Cosa è successo con Facebook e la campagna di Trump?

Quando i media generalisti si occupano di tecnologia e social network i casi sono due: o stanno spingendo un prodotto, o è successo qualcosa di grosso.

Sugli scudi stavolta c’è la campagna elettorale di Donald Trump, condotta dallo stratega Steve Bannon attraverso una società creata assieme a Robert Mercer e chiamata Cambridge Analytica. Questa società sarebbe stata creata al fine di costruire profili “psicografici” (che non sarebbero altro però che normali profili che includono gusti e inclinazioni) di milioni di americani per costruire campagne social con messaggi mirati.

La “psicografia” per nascondere una violazione

Un primo problema nasce con la definizione di “profilo psicografico”: un termine che non vuol dire niente, non ha base scientifica e che ha fatto gridare qualcuno al millantato credito. In verità, con quello che è emerso in seguito, pare chiaro che fosse un termine vago e pomposo usato per occultare che si trattasse di profili estratti da Facebook in violazione dei suoi termini di servizio.

Lo scopo era semplice. In pratica, mandando il messaggio giusto alla persona predisposta o coinvolta su un certo argomento, è più facile fare in modo che questa persona rimanga convinta dall’argomento. Non serve solo a convincere qualcuno a cambiare idea, ma soprattutto a rafforzare le idee di quel qualcuno, in modo che non solo non le cambi, ma diventi più attivo e faccia proselitismo, invece di starsene silente. Da information recipient diventi information seeker e persino opinion leader, secondo un diffuso modello di propaganda.

Questo tipo di messaggi – poiché sono mirati a qualcuno che già pensa certe cose – sono meno efficaci e più costosi se inviati a un mucchio indistinto di persone. E’ lo stesso principio per cui vi trovate banner con le scarpe che vi interessano dopo aver fatto una ricerca online proprio sulle scarpe. E magari ne siete pure contenti perché trovate l’offerta migliore. Solo, riferito alle idee politiche, o magari anche solo alla “visione del mondo”: aspetti particolari e sensibili come l’uso delle armi, o l’immigrazione o i temi etici su inizio e fine vita. Un messaggio particolarmente aggressivo su questi temi, se arriva a qualcuno che ha idee opposte genera indignazione e resistenza, ma se arriva a qualcuno già incline a pensarla in quel modo, genera in meccanismo di rafforzamento delle proprie opinioni, specie se accompagnato da alcune strategie mirate a farlo sembrare già condiviso da un sacco di gente, e in particolare da gente proprio simile a noi. Non solo aderiamo quindi ancora di più a quella idea: ci convinciamo pure di non essere soli a pensarla così, e di essere al centro di un gruppo coeso di sconosciuti simili a noi.

Scoprire i profili a cui inviare

Se questo è ciò che Bannon e Mercer hanno fatto, il punto è: come hanno fatto a sapere a chi inviare, sui social network, questo genere di messaggi e a chi no? Per chi sarebbero stati più efficaci e per chi meno? Grazie al lavoro del professor Aleksandr Kogan dell’Università di Cambridge. Assoldato da Bannon e Mercer, Kogan ha accettato di produrre un’app chiamata “Thisisyourdigitallife” e l’ha reclamizzata (con un discreto investimento, pagando anche i partecipanti) come un’app per la raccolta dati in ambito accademico. Lo scopo dichiarato era compilare un questionario personale, ma il vero obiettivo dell’app era più complesso: fare in modo che chi la scaricasse usasse per loggarsi le funzionalità di Facebook Login, il servizio – simile a quello offerto da molti altri social network – grazie al quale si possono usare le stesse credenziali di Facebook su app e servizi terzi senza dover ricordare nuove password. Ben 270.000 utenti si sono loggati all’app nel 2014 usando questa funzionalità.

Kogan a quel punto non ha fatto altro che sfruttare una funzionalità ben prevista da Facebook Login: accedere ad alcuni dati non solo degli utenti che si sono loggati, ma anche dei loro amici, registrati dal social network. Secondo alcune stime, circa 50 milioni in tutto. Di queste persone, che non avevano scaricato l’app ed erano ignare di tutto, Kogan ha potuto utilizzare informazioni che vanno dalla residenza a un insieme di gusti e inclinazioni, associati a quelle del profilo compilato dagli originali 270.000. Utilizzandole hanno potuto dedurre altri gusti e preferenze, costruendo un profilo utile agli scopi della campagna.

Nessuna violazione della sicurezza o della privacy

Quanto fatto da Kogan, ci tiene a precisare Facebook, era perfettamente legale. Non è stata sfruttata nessuna vulnerabilità. Nessuna intrusione nei meccanismi di sicurezza. Nemmeno alcuna violazione della privacy. Perché era proprio il modo in cui Facebook e il suo sistema di Login distribuito funzionava “by-design”, e gli iscritti lo avevano accettato accettando i termini del servizio.

Laddove Facebook ritiene che Kogan abbia violato i termini del servizio è in quel che ha fatto dopo: ha passato questi dati e questi profili a Cambridge Analytica. Questo è espressamente vietato da Facebook, anche se all’epoca lo era in maniera forse meno chiara di oggi. Era (ed è) vietato tentare di monetizzare quei dati inviandoli a servizi terzi di advertising, essenzialmente. Da allora, Facebook ha modificato le API e gli sviluppatori di terze parti non possono più accedere ai dati degli amici.

Facebook sapeva e ha taciuto

Per almeno due anni Facebook avrebbe saputo di questo uso dei dati, e avrebbe semplicemente chiesto a Kogan di cancellarli. Senza nemmeno verificare che poi l’abbia veramente fatto.

E’ proprio per questo comportamento che ora Facebook viene chiamato in correità dall’FBI.

Questo è quello che è successo e le cui responsabilità verranno acclarate. La domanda che io mi porrei però è: quello che nel 2014 era un’iniziativa un po’ fraudolenta di un professore e un paio di miliardari che hanno voluto influenzare una campagna elettorale, non è forse ciò che, di base, fanno le piattaforme di programmatic advertising ? Incrociando dati provenienti da svariate fonti, pur legali, costruiscono profili accurati degli interessi in tempo reale di ciascuno di noi, per proporci su qualunque sito proprio la reclame delle scarpe e proprio nel momento in cui le stavamo cercando.

Una possibilità già alla portata di piattaforme specializzate

La differenza la fa il fatto che Bannon e Mercer hanno usato uno strumento personalizzato bypassando le tradizionali piattaforme di advertising, e in particolare quella interna di Facebook. E magari inviando non solo pubblicità, ma anche messaggi, inviti a gruppi, insomma, facendo sembrare l’azione più “spontanea”. Ma le informazioni su di noi consentirebbero a chiunque gestisca queste piattaforme di farlo comunque. Magari senza violare alcun “Termine del servizio”.

Ma qui allora dovremmo ricordarci che Facebook non ha eliminato la possibilità di utilizzare i dati degli amici. L’ha solo riservata a… se stesso. In pratica, il problema della Cambridge Analytica sarebbe che ha fatto quello che consente di fare Facebook, ma senza pagare Facebook. Alcuni ricordano infatti che la stessa campagna 2012 di Obama (non quella del 2008, che era basata su un meccanismo autonomo e senza l’uso così massiccio dei social network commerciali, che non avevano le capacità di oggi) era stata fatta per creare messaggi personalizzati da inviare a target specifici. Bannon e Mercer fanno lo stesso ma “fuori da Facebook”.

In mezzo, ci sono i nostri dati, oggetto oggi più che mai di quello che viene chiamato surveillance capitalism. In pratica gli operatori possono agire h24 indirizzandoci messaggi mirati perché ci conoscono bene. A volte questo avviene per fini commerciali, ma a volte per fini politici o ideologici. Ogni volta viene comunque fatto per influenzarci. Talvolta ce ne accorgiamo, altre no.

Trasparenza e usabilità vanno a braccetto?

Su questo si innesta dunque il problema del modello di business di queste tecnologie, e soprattutto della trasparenza o meno della loro azione nei nostri confronti. Avrete notato infatti che l’app di Kogan ha sfruttato proprio un vantaggio di usabilità per gli utenti: la possibilità di un login unico, tramite Facebook. L’usabilità qui viene usata come grimaldello per quella che appare nell’immediato una facilitazione, ma nel lungo termine consente un pescaggio di dati di cui i nostri amici non sono consapevoli, reso possibile dalle API di Facebook e dalla nostra accettazione dei suoi termini di servizio. Era chiara questa possibilità al momento di usare il Facebook Login? E quando abbiamo accettato i termini di servizio?

Ecco, l’ultimo tema è quello dei termini di servizio. È davvero possibile sostenere che basti un qualche click da parte nostra su un qualche bottone e qualche casella di spunta per mettere questi fornitori di servizi al riparo da ogni responsabilità legale? Il problema è spinoso, perché riguarda quello non dell’usabilità, ma della comprensibilità delle condizioni contrattuali. E non coinvolge solo i giganti tech, ma anche banche e assicurazioni (e ogni altro erogatore di servizio). Quanto davvero capiamo dei contratti che sottoscriviamo? In banca, oppure online? Eppure, queste sottoscrizioni sembrano tutto ciò che basta a tutelare il service-provider.

È davvero giusto che sia così? Non sarebbe più giusto invece verificare, con casi concreti ed esempi, che il sottoscrittore abbia capito in pratica cosa significa il contratto, o cosa implicano i termini del servizio, usando precisi scenari? E che sia davvero d’accordo con i casi peggiori che possono presentarsi? Se anziché sottoscrivere un documento in legalese ci venissero posti davanti problemi, cioè situazioni-tipo che comportano conseguenze per i nostri soldi e per i nostri dati, e dessimo direttamente il consenso o il diniego a quelle?

Ad esempio, se ci venisse chiesto:

“Accetti che i tuoi dati vengano usati per inviarti messaggi propagandistici da inserzionisti politici?”

E ancora, si potrebbe specificare:

“Da chi accetti che questi messaggi propagandistici ti arrivino? Da chiunque, o solo da quelli che già convergono con le tue idee?”

Sono solo esempi, ma sufficienti a spingerci a riflettere cosa risponderemmo. Accetteremmo ancora di usare il servizio? Ed è positivo per una società (e per una democrazia…) consentire, ad esempio, che le persone ricevano messaggi solo da coloro che già concordano con loro? Ecco che, messe in questi termini, le condizioni di un servizio appaiono sotto una luce differente.

Una circonvenzione di massa?

E se ci venisse detto prima di tutto:

“Accetti che, se si verifica l’evento X…, i tuoi risparmi verranno dimezzati?”

sottoscriveremmo ancora certi contratti finanziari? Un legale può obiettare che il modo in cui sono scritti questi contratti implica già che queste sono le condizioni, ma se facessimo un test di comprensibilità ad ogni sottoscrittore di un contratto dopo la firma, per essere certi che chi ha firmato ne capisca le implicazioni, siamo certi che non troveremmo risultati che contraddicono questi legali?

In molti casi peraltro nemmeno li leggiamo, i contratti: finiamo per affidarci al consulente finanziario o al social a cui vogliamo accedere. Che infatti si affrettano a conquistare una preziosa proprietà chiamata fiducia. E se fosse tutta una circonvenzione di incapace a comprendere, o, peggio, disinteressato a comprendere?…

L’avversione alla perdita

In un certo senso, il modo in cui sono scritti i contratti costituisce quindi una prima forma di manipolazione. Sappiamo dalla psicologia cognitiva che uno stesso problema che coinvolge le probabilità di perdita e guadagno può essere espresso in modi diversi, e che questi modi diversi, pur equivalenti sul piano del significato, danno vita a scelte e giudizi differenti. Si tratta di un fenomeno noto come avversione alla perdita: siamo più propensi a evitare un evento se ci viene raccontata la probabilità di perdere qualcosa, che se ci viene esposta la complementare probabilità di guadagno. È ovviamente così anche con i contratti. Se tali contratti mettessero sempre in chiaro concretamente cosa rischiamo di perdere, in determinate circostanze, oltre che le probabilità di guadagno, non sarebbero forse solo allora veramente onesti?

Il problema non è detto si risolva neanche così, ma il tema si pone e andrebbe approfondito. È ormai chiaro che i contratti scritti per non essere letti e comunque per non essere capiti sono all’origine delle principali controversie, quando non proprio truffe, nella nostra società dei servizi. Quanto dovremo attendere per rendercene conto e discutere delle loro modalità e della nostra capacità di accettazione?

Aggiornamento: L’articolo è stato modificato dopo la prima pubblicazione per correggere l’anno in cui Kogan ha usato l’app: era il 2014 e non il 2015. Facebook ha d’altra parte eliminato questa possibilità dalle sue API nell’aprile 2015.

2 thoughts on “Cosa è successo con Facebook e la campagna di Trump?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *