69 CONDIVISIONI

Frances Haugen a Fanpage.it: “Lavoravo a Facebook, non dormivo la notte. Vi svelo tutti i suoi segreti”

Haugen ha appena pubblicato per Garzanti “Il dovere di scegliere”, il libro dove ripercorre la sua battaglia contro Facebook. Durante l’intervista con Fanpage.it abbiamo anche parlato dei rischi dell’intelligenza artificiale, dei ban contro TikTok, di Elon Musk e del futuro dei social network.
Intervista a Frances Haugen
Ingegnere informatico e attivista
A cura di Elisabetta Rosso
69 CONDIVISIONI
Immagine

Ad aprile 2021 Frances Haugen si licenzia da Facebook e consegna 22.000 pagine di documenti interni al Wall Street Journal. Dentro ci sono tutti i peccati del social di Mark Zuckerberg. Dai danni alla salute mentale degli adolescenti, all’influenza dell’algoritmo sull'instabilità politica di molti Paesi, e poi i pozzi neri dove far ribollire la disinformazione, e i traffici di esseri umani o i cartelli della droga che sopravvivono sulla piattaforma senza incontrare chissà quale resistenza. "Non volevo tenere per me segreti che avrebbero potuto mettere in pericolo la vita delle persone", ha raccontato Haugen a Fanpage.it.

Decide di denunciare tutto, lasciare il suo ruolo da lead product manager e diventare la whistleblower che porta tutti i segreti di Facebook davanti al Senato degli Stati Uniti d’America, squarciando per la prima volta il dietro le quinte del social. "Quasi nessuno al di fuori di Facebook sa cosa succede all’interno di Facebook. L'azienda nasconde intenzionalmente informazioni fondamentali", ha detto ai senatori. Informazioni che Haugen ha raccolto in quelli che sarebbero diventati i "Facebook File", quelle 22.000 pagine di documenti segreti che hanno mostrato al mondo l'altra faccia del social. Quella più brutta.

Quando hai iniziato a lavorare per Facebook com’era il tuo lavoro e quali erano le tue responsabilità?

Ho iniziato nel 2019, all’inizio ero nel team di Integrità Civica, che è diverso rispetto al team di informazione principale perché si concentra su quei luoghi del mondo in cui non esiste un controllo da parte di terzi. Ho cominciato ad occuparmi delle elezioni del 2020 negli Stati Uniti. Ci dicevano che dovevamo rendere sicuro il social eliminando i contenuti pericolosi il problema è che per farlo davvero era necessario riscrivere i sistemi di sicurezza lingua per lingua.

Quando hai capito che dovevi parlare?

Durante l’inverno del 2020. Circa un mese dopo le elezioni negli Stati Uniti. Ci hanno convocato per una riunione su Zoom e ci hanno detto che il nostro team era davvero importante, per questo sarebbe stato integrato con il resto dell’azienda. In realtà ci stavano dicendo tutt’altro: stavano sciogliendo la nostra squadra. In quel momento ho capito che Facebook non poteva salvarsi da solo, in quel momento ho capito che avrei dovuto fare qualcosa.

Come è cambiata la tua vita da quando sei diventata una whistleblower?

Non volevo tenere per me segreti che avrebbero potuto mettere in pericolo la vita delle persone. Quindi la prima cosa che è cambiata nella mia vita è stata riuscire a dormire di notte. Poi sono finita al centro dell’attenzione. Io sono sempre stata una persona che non ha mai festeggiato il suo compleanno, non mi piace stare sotto i riflettori ma ho imparato a far sentire la mia voce senza dover necessariamente occupare spazio.

Ti ricordi quando hai aperto il tuo primo account Facebook?

Oh sì, probabilmente nel 2005 o nel 2006, ero al college. Facebook è stato lanciato nel 2004, ma solo per la Ivy League, e poco dopo è arrivato in altri college, come il Wellesley. Il mio college era a cinque minuti di macchina dal Wellesley, e così per un paio di anni sono andata lì perché potevo usare Facebook.

Entriamo nel dietro le quinte di Facebook. Cosa non funziona? 

In questo momento manca un ciclo di feedback in grado di tutelare gli utenti da conseguenze indesiderate. E sai, a Facebook piace utilizzare le metriche, misurare tutto, gli permette di dire che è obiettivo. Ma quando riduci le cose a numeri, riduci anche la loro complessità. Ora siamo in un momento interessante perché l'Europa ha approvato una legge chiamata Digital Service Act, che dà accesso per la prima volta ai dati della piattaforma, e così si apre il sipario per vedere il dietro le quinte. In questo momento Facebook sta cercando di spendere il meno possibile in sicurezza ma ora che i cittadini potranno vedere cosa c’è dietro, e fare domande, potrebbe davvero scattare un ciclo di feedback positivo.

Mi fai un esempio pratico di un meccanismo social che è dannoso anche se non ce ne accorgiamo?

Certo. Ti faccio un esempio. Sono stata intervistata da un giornalista che è anche un padre, ha creato un profilo Instagram per il figlio con solo cinque o sei amici, metteva mi piace a foto e video di questi bambini che sorridono e giocano, bambini sani, felici. Poi a un certo punto sono spuntate altre immagini, sempre di bambini ma malati, con delle deformità o vittime di incidenti, e lui mi ha chiesto: Frances, come siamo finiti a vedere bambini sofferenti? E la risposta è: a causa dell’algoritmo di raccomandazione. L'algoritmo, il computer, non capisce le emozioni, ti suggerisce solo contenuti correlati a quello che guardi. Ora, lui era un adulto, ma immaginiamo che qualcosa del genere succeda a un adolescente, che sta vedendo cambiare il suo corpo e magari è preoccupato per il suo peso.

A volte non ce ne rendiamo conto, ma i social non sono solo un problema di privacy. Ci sono conseguenze più gravi, penso alla disinformazione durante il Covid o all’impatto che ha avuto sulle minoranze Rohingya in Myanmar. 

Se io e te ci mettiamo per tre settimane, possono insegnarti a programmare in modo tale da porre domande reali sulla sicurezza di Google per capire cosa ti mostrando e cosa no, se noi volessimo fare la stessa cosa, per esempio con Instagram dovremmo reclutare 20.000 volontari e convincerli a mettere un software sui loro telefoni che ci permetta di vedere quello che vedono sul loro account Instagram. E questo solo per iniziare il processo, perché i social creano un’esperienza personale più difficile da controllare. Hai menzionato il Myanmar, dove c’è stato un genocidio sostenuto da Facebook. Non è una mia opinione, le Nazioni Unite hanno pubblicato un rapporto di 200, 300 pagine in cui viene descritta la negligenza di Facebook che ha portato alla morte di decine di migliaia di persone.

Questo è stato possibile perché nessuno al mondo sapeva cosa stava succedendo lì, tranne le persone sul campo in Myanmar, per via della personalizzazione del social, inoltre non c’erano moderatori che parlavano la lingua locale in grado di bloccare i contenuti d’odio. E Facebook non ha nemmeno preso sul serio la possibilità di investire in risorse per capire cosa stesse succedendo. Anzi quando hanno provato a dirlo a Facebook si sono scontrati con un muro.

Cosa ne pensi di Mark Zuckerberg, gli hai mai parlato? 

Non ci ho mai parlato ma vorrei davvero farlo. Gli direi: “Penso che tu sia una persona molto capace e intelligente e se fossi disposto a lasciare i social media potresti avere un secondo capitolo nella tua vita”. Potrebbe cambiare il mondo, come ha fatto Bill Gates quando ha lasciato Microsoft per aiutare le persone a combattere l’Aids, la malaria, o a imparare a scrivere e a leggere. Credo che Mark Zuckerberg. Lavora a Facebook da quando aveva 19 anni. È il momento giusto per Mark di esplorare nuove opportunità e di usare il suo immenso talento per fare qualcosa di costruttivo. E non smetterò di lottare finché non raggiungerà il suo pieno potenziale.

Passiamo a un altro social, TikTok è stato bannato su diversi dispositivi governativi, non solo negli Stati Uniti, ora tu non hai mai lavorato per TikTok, ma cosa ne pensi? Credi che abbia problemi simili a Facebook?

La cosa positiva di TikTok è che ha riconosciuto di avere potere, e quando ce l’hai la cosa più importante è riconoscerlo. Il problema è che è ancora meno trasparente rispetto a Facebook. Ci sono stati una serie di scandali che hanno messo in luce come TikTok controlla ciò che puoi vedere. Ad esempio, qualche anno fa è venuto fuori che se una persona era disabile TikTok le impediva di diventare virale. La piattaforma ha ribattuto dicendo che era un modo per proteggere gli utenti da commenti offensivi. Non penso sia questo il motivo. Ora sempre più persone sotto i 35 anni si informano su TikTok. E se la Cina dovesse invadere Taiwan, pensi che ci sarebbero ancora contenuti taiwanesi su TikTok? Io credo di no, e questo mi preoccupa.

C’è anche un altro social che sta facendo parlare di sé. Prima si chiamava Twitter, ora X, com'è cambiato dall'arrivo di Elon Musk? 

Sono molto preoccupata per Twitter o X, perché Elon ha licenziato tantissimi dipendenti e altri hanno deciso di andarsene. I social sono come dei giardini, devi curarli costantemente. E sai prima dicevamo che una cosa positiva di TikTok è che comunque ha riconosciuto il suo potere, ecco sembra che Elon Musk non riesca a capire che ha una responsabilità enorme. Non solo, c’è anche un’altra cosa che mi preoccupa. Così facendo ha dimostrato che si può mettere da parte la sicurezza su un social senza pagare nessuna conseguenza. Si è sbarazzato dei meccanismi di trasparenza, ha licenziato i moderatori, e non è successo nulla. Anzi, Mark Zuckerberg l’ha anche seguito, licenziando moltissime persone del team sicurezza nella sua azienda.

Cosa ti spaventa di più dell’intelligenza artificiale (IA)?

Con l’intelligenza artificiale stiamo per ripetere gli stessi errori commessi con i social media. Anche in questo caso i sistemi sono opachi, non capiamo come funzionano, non sappiamo cosa possiamo vedere e cosa no. E molte conseguenze le vedremo proprio sui social con la moderazione dei contenuti. L’intelligenza artificiale infatti può essere facilmente imbrogliata, basta cambiare un pixel. Funziona un po’ come la virgola nelle frasi, sembrano sostanzialmente le stesse ma non lo sono. E così l’IA può lasciar passare foto o video che crede siano sicuri ma in realtà sono molto pericolosi.

Prima ingegnere, poi whistleblower, attivista e autrice del libro: "Il dovere di scegliere, la mia battaglia per la verità contro Facebook," qual è la prossima mossa?

Stiamo costruendo un'organizzazione no-profit, una fondazione chiamata Beyond the Screen, che si concentrerà su quello che noi chiamiamo sviluppo nell'ecosistema della responsabilità. I giornalisti fanno parte dell’ecosistema della responsabilità, gli avvocati,  gli investitori, gli assistenti legislativi, i genitori, sai, tutti questi gruppi insieme sono un modo per far funzionare la democrazia, sono ecosistemi, con interessi diversi, competenze diverse, che insieme possono lavorare per migliorare il sistema. E sono molto entusiasta di annunciare questo progetto che diventerà realtà nei prossimi mesi.

69 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views