Quello che Facebook dovrebbe fare ora.
Bilanciare il diritto di esprimersi del singolo e la necessità di controllare i "contenuti divisivi” (contenuti che creano divisioni e contrasti) per Facebook è un problema più grande dell'attuale scandalo dei dati e la soluzione richiederà un approccio ambizioso.
La scorsa settimana, un solenne Mark Zuckerberg ha affrontato un comitato del Senato degli Stati Uniti come uno scolaro davanti al suo preside. Il mondo ha sorriso, perché tutti adorano vedere ridimensionati gli arroganti e i potenti. Ho trovato lo spettacolo umano e il dramma sulla privacy dei dati moderatamente divertenti e illuminanti, ma l'indignazione e l'orientamento delle indagini le trovate superficiali, perché l'uso dei dati (e il loro abuso) è un fatto imprescindibile della società digitale.
Lo scandalo Cambridge Analytica ha reso popolari le preoccupazioni sulla raccolta e l'uso dei dati personali. L'uso responsabile dei dati personali è qualcosa che Facebook (e l'industria della tecnologia pubblicitaria in generale) deve migliorare urgentemente. Il GDPR, il nuovo regolamento UE, fornirà un utile banco di prova di un'ampia regolamentazione della privacy dei dati, ma viviamo in un'economia dei dati e sarebbe ingenuo credere che qualsiasi quadro normativo proteggerà completamente individui e comunità.
Il news feed di Facebook genera oltre $ 30 miliardi, o circa il 75% delle entrate pubblicitarie annuali totali del sito. Queste entrate dipendono dai dati degli utenti raccolti per indirizzare, pubblicare e analizzare gli investimenti pubblicitari. Il modello di business di Facebook ("Senator, We Run Ads") stabilisce la considerazione che Facebook ha dei dati personali.
Quasi 20 anni fa Scott McNealy (all'epoca CEO di Sun Microsystems) ha dichiarato alla rivista Wired: "Hai comunque zero privacy. Adeguati.” Nel 2010, Mark Zuckerberg ha predetto che con l'aumentare dei social media, la privacy non sarà più una "norma sociale". Se il 21° secolo è davvero il secolo dei dati, non può certamente essere il secolo della privacy.
A meno che non ci sia un esodo di massa dai social media, la quantità e la qualità dei dati raccolti da Facebook cresceranno. Nel 2017 Facebook ha superato i 2 miliardi di utenti mensili ma, ovviamente, possiede anche Instagram (800 milioni di utenti mensili) e WhatsApp (1,5 miliardi di utenti mensili). Sulla base delle sue azioni passate sembra probabile che, in futuro, Facebook acquisirà altre piattaforme per proteggere e consolidare la sua posizione come strumento indispensabile e ricco di dati per gli inserzionisti.
Persuasori di massa del pensiero e del comportamento.
Un inserzionista è chiunque paghi per pubblicare un messaggio con l'intento d’informare e influenzare. La maggior parte degli inserzionisti su Facebook sono marchi che cercano di vendere qualcosa. Alcuni, tuttavia, sono organizzazioni che hanno obiettivi sociopolitici. Il termine 'materiale divisivo' è usato per descrivere alcuni dei contenuti sociopolitici che sono stati pubblicizzati e condivisi su Facebook. Zuckerberg ha esplicitamente affermato che Facebook è responsabile per il contenuto della sua piattaforma, così facendo assume implicitamente la responsabilità del materiale che viene diffuso. Questo è un problema molto più grande della privacy dei dati.
Facebook lo sa, la seguente citazione da Wikitribune rivela la soluzione ufficiale: "Quasi ogni volta che a Zuckerberg veniva chiesto se Facebook stava diventando una piattaforma di materiale divisivo, ha indicato le promettenti possibilità dell'intelligenza artificiale (AI)." Attualmente Facebook impiega moderatori umani per rivedere materiale contrassegnato come divisivo. Il futuro che Zuckerberg vede per l'intelligenza artificiale è quello di sostituire quei moderatori umani. Gli esseri umani sono più fallibili, inaffidabili, lenti e, a lungo termine, più costosi di un'AI efficiente, conforme e obbediente. Ma un moderatore che esamina del materiale contrassegnato è un censore - che sia umano oppure AI - e la censura è pericolosa per la democrazia e per il progresso. Chi ha il potere di decidere ciò che miliardi di persone possono vedere o no ha un enorme potere e responsabilità.
Idee sbagliate e offensive.
Steven Pinker, professore di psicologia all'Università di Harvard e autore, esprime bene il concetto: "Tutto ciò che sappiamo sul mondo, l'età della nostra civiltà, della specie, del pianeta e dell'universo; le cose di cui siamo fatti; le leggi che governano la materia e l'energia; il funzionamento del corpo e del cervello - è arrivato come un insulto al credo comune precedente”.
Consideriamo, per esempio, Ignaz Semmelweis, il medico ungherese e pioniere delle procedure antisettiche. Oggi, la necessità di sterilizzazione nelle procedure mediche non è un argomento che divide. Nel 1848, tuttavia, le osservazioni di Semmelweis erano in conflitto con opinioni scientifiche e mediche consolidate, le sue idee furono respinte e molti dei suoi colleghi furono offesi dal suo suggerimento di lavarsi le mani. Semmelweis morì nel 1865 in un istituto psichiatrico, 139 anni prima dell'esistenza di Facebook. In un improbabile universo parallelo, in cui Facebook fosse contemporaneo a Semmelweis è probabile che le sue idee sarebbero considerate divisive.
Non molto tempo fa il genere era per lo più considerato un soggetto binario, eppure oggi, nelle società liberali, c'è una crescente consapevolezza e accettazione del fatto che il genere è più complesso del mero essere maschile o femminile. Questo cambiamento nella coscienza e nell'atteggiamento tradizionale è il risultato della discussione della diversità sessuale nei mass media e nei social media. L'aborto è un soggetto divisivo da secoli. La teoria dell'evoluzione era, e per alcuni è ancora, divisiva. L'elenco dei soggetti divisivi è infinito.
Chi dunque decide i parametri della censura? La comunità scientifica del 1850 a cui non piaceva l'idea di lavarsi le mani? Su quale lato della barricata pro-vita o pro-scelta si concentra la censura? Oppure eliminiamo semplicemente ogni riferimento all'aborto? Cosa accadrebbe se i veri clienti di Facebook, i grandi investitori in pubblicità, usassero la loro influenza sulle decisioni di censura? Il progresso è il risultato della discussione e del confronto di opinioni diverse. La società sarebbe migliore, senza "materiale divisivo”? Penso di no, proprio come credo che alcuni degli argomenti divisivi di oggi, attraverso un processo di esposizione, discussione e assimilazione, saranno consuetudini nella società di domani.
Signor Zuckerberg, insegna al mondo a dibattere.
La missione dichiarata di Facebook è: “bringing the world closer together”. Il mondo è molto, molto, molto vario. Non c'è granché su cui due miliardi di persone concordano. La diversità della cultura e delle convinzioni è la fonte del contenuto divisivo. Le idee sono pericolose e divisive, ma senza di loro siamo polvere. Attraverso l'interazione umana le idee crescono e si trasformano oppure falliscono e muoiono. Comprendendo le idee opposte alle nostre possiamo comprendere meglio gli altri.
La soluzione non è bloccare la discussione di certe idee, la soluzione è quella di propagare strumenti che promuovano un dibattito rispettoso. Se Facebook sviluppasse una struttura per le interazioni umane che promuovesse il rispetto per le opinioni altrui, l'accettazione della diversità e la capacità di difendere la propria convinzione senza insultare le idee opposte, allora potrebbe sfruttare l'intelligenza artificiale per moderare il tono e le modalità del dibattito, non semplicemente bandire certi argomenti. Aumentare la capacità di dibattito civile dell'utente medio di Facebook, migliorerebbe la qualità e la sostenibilità della piattaforma.
Mi rendo conto che si tratta di un'impresa mostruosamente ambiziosa, ma Facebook, se fosse interessato, è in una posizione unica per tentarla. La dimensione del pubblico di Facebook è più grande di qualsiasi nazione. La loro forza tecnologica e finanziaria è commisurata al compito. L'influenza e la dipendenza della piattaforma sono favorevoli all'apprendimento e al cambiamento del comportamento. La teoria del Nudge suggerisce che se Facebook si applicasse al compito di migliorare la qualità dei dibattiti, potrebbe farlo in modo efficace, giorno dopo giorno e utente dopo utente. Se Facebook non tenta qualcosa di grande, visibile e nobile, quasi certamente sarà soggetto di una regolamentazione restrittiva, ideata da politici che non comprendono la cosa che intendono regolamentare.
Gli inserzionisti apprezzeranno.
Insegnare alle persone modi accettabili per esprimere ciò che pensano non è lo stesso che dire loro cosa dovrebbero pensare. Informando gli interessati su argomenti divisivi - raccogliendo, condensando e presentando in modo neutrale i diversi punti di vista è un servizio inclusivo e imparziale.
Se Facebook seguirà il percorso sdrucciolevole della censura, inevitabilmente, attraverso le scelte su cosa censurare, diventerà una piattaforma divisiva. Farebbe fatica a mantenere i suoi 2 miliardi di utenti, figuriamoci “unire il mondo”.
Un altro incentivo per Facebook di migliorare la qualità del dibattito sul suo sito è che questo sarebbe apprezzato dagli inserzionisti. Recentemente la sicurezza del marchio è diventata una seria preoccupazione per i marchi. Le situazioni in cui gli annunci pubblicitari appaiono affiancate a contenuti controversi sono dannosi per gli inserzionisti e, di conseguenza, anche per Facebook. La promessa di una piattaforma in cui le opinioni di ogni tipo sono espresse liberamente, ma con un tono e un modo brand-friendly, è accattivante. Il pubblico è potenzialmente vasto e il canale è sicuro per i brand.
Le regole di dibattito si applicherebbero, naturalmente, anche ai contenuti pubblicitari. Ciò non influirebbe sulla pubblicità dei brand che sono auto-regolamentate, ma limiterebbe le tattiche più “tossiche" di certi soggetti politici. Aiutare il mondo a capire che la libertà di ogni individuo di credere e parlare di ciò che desidera può essere garantita solo da una società aperta che ha delle regole concordate di dibattito è una nobile causa. E per Facebook sarebbe anche buono per gli affari.