Di recente, l’ingegnere senior di Google Gregory Coppola ha contattato il gruppo watchdog Project Veritas per parlare dei pregiudizi di Google che influenzano le informazioni che gli utenti ottengono sulle scelte politiche. (
Coppola, che è cresciuto in Canada, ha detto a Project Veritas che aveva sperimentato Google come un luogo abbastanza neutrale politicamente quando ha iniziato a lavorare su Google Assistant nel 2014. Le cose sono cambiate durante le elezioni americane del 2016 quando “ogni azienda tecnologica, tutti a New York, tutti nel campo dell’informatica fondamentalmente credevano che” chiunque sostenesse Donald Trump fosse un razzista. Per sua sfortuna, a Coppola piaceva Trump.
Quando un’altra elezione americana incombe, ha riferito le sue preoccupazioni a Project Veritas. Dal video:
Narratore: Secondo Coppola, l’agenda di Big Tech è pericolosa, in gran parte, perché è nascosta.
Coppola: Penso che abbiamo avuto un lungo periodo, di dieci anni, diciamo, in cui abbiamo avuto la ricerca e i social media che non avevano un pregiudizio politico e ci siamo abituati all’idea che la ricerca top era quella, Google era probabilmente la risposta. E Robert Epstein, che ha testimoniato davanti al Congresso la scorsa settimana, ha esaminato la cosa e ha dimostrato che la stragrande maggioranza delle persone pensa che se qualcosa è più altamente valutato su Google Search rispetto ad un’altra storia, allora sarebbe più importante e più corretto. E, e non abbiamo avuto il tempo di assorbire il fatto che la tecnologia potrebbe avere un’agenda. Voglio dire, è qualcosa di cui abbiamo iniziato a parlare solo ora. Ecco perché sto parlando con te.
Coppola si riferisce alla recente testimonianza dello psicologo di ricerca comportamentale Robert Epstein (che si è descritto come “centro/centro-sinistra” davanti a una commissione del Senato):
I dati che ho raccolto dal 2016 mostrano che Google mostra al pubblico americano contenuti che sono distorti a favore di un partito politico (Epstein & Williams, 2019) – un partito che mi piace, ma questo è irrilevante. Nessuna azienda privata dovrebbe avere né il diritto né il potere di manipolare grandi popolazioni a loro insaputa. …
Mi rivolgo a pubblici diversi e differenti perché le minacce poste da Google e, in misura minore, da Facebook, sono così gravi che penso che tutti nel mondo debbano conoscerle. Metto da parte le mie inclinazioni politiche quando riferisco i miei dati e le mie preoccupazioni perché i problemi che queste aziende presentano eclissano la politica personale. Per dirla in un altro modo, amo l’umanità, il mio paese e la democrazia più di quanto ami un particolare partito o candidato. E la democrazia come originariamente concepita non può sopravvivere a Big Tech come attualmente autorizzata.
Se doveste esaminare i dati che ho raccolto negli ultimi 6 anni e mezzo, ognuno di voi metterebbe da parte la partigianeria e collaborerebbe per reprimere lo straordinario potere che Google e Facebook ora esercitano con arroganza sfacciata.
Robert Epstein, “Why Google Poses a Serious Threat to Democracy, and How to End That Threat (transcript)” all’American Institute for Behavioral Research and Technology
Epstein offre cinque “risultati inquietanti”, tra cui
Nel 2016, i risultati di ricerca distorti generati dall’algoritmo di ricerca di Google hanno probabilmente influenzato gli elettori indecisi in modo da dare almeno 2,6 milioni di voti a Hillary Clinton (che ho sostenuto). Lo so perché ho conservato più di 13.000 ricerche relative alle elezioni condotte da un gruppo eterogeneo di americani su Google, Bing e Yahoo nelle settimane precedenti le elezioni, e i risultati di ricerca di Google – che dominano la ricerca negli Stati Uniti e nel mondo – erano significativamente distorti a favore del segretario Clinton in tutte le 10 posizioni della prima pagina dei risultati di ricerca sia negli stati blu che negli stati rossi.
Robert Epstein, “Why Google Poses a Serious Threat to Democracy, and How to End That Threat (transcript)” all’American Institute for Behavioral Research and Technology
La testimonianza di Epstein si collega a precedenti osservazioni come quella che “le ricerche per Hillary Clinton non si completavano automaticamente con parole che erano ricerche popolari se riflettevano negativamente sul candidato democratico.”
Gli utenti, naturalmente, non sanno che l’algoritmo è configurato in quel modo. Pensiamo che sia la migliore informazione disponibile in qualche senso neutrale. Ma come Coppola ha detto a Project Veritas, gli algoritmi – la serie di comandi ai computer – “non si scrivono da soli”. La gente può scrivere le proprie opinioni in un algoritmo, consapevolmente o meno.
In un recente articolo, Coppola offre maggiori dettagli sulla meccanica della manipolazione delle opinioni, usando Google News come esempio e scegliendo “donald trump” come soggetto:
Il sito più utilizzato, CNN, è selezionato nel 20% di tutti gli articoli! In altre parole, anche con i milioni di siti su Internet, 1 ogni 5 storie su “donald trump” da Google News è dalla CNN.
Gregory Coppola, “Analizzare Google News: Introduction” su Medium
Il significato di questo fatto è che, tra le grandi reti mediatiche americane, la CNN è ritenuta interagire con l’attuale Casa Bianca nel modo più ostile. Per esempio, la rete ha fatto causa alla Casa Bianca recentemente per il rifiuto di un pass stampa a uno dei suoi reporter.
Dalla trascrizione parziale a Project Veritas:
… COPPOLA: Ma credo che io, sapete, guardo la ricerca e guardo Google News e vedo cosa sta facendo e vedo i dirigenti di Google andare al Congresso e dire che non è manipolato. Non è politico. E sono così sicuro che non è vero. Che è, sapete, diventa molto meno divertente lavorare sul prodotto. Quindi ti influenza così tanto. Sì, sicuramente. Voglio dire, la cosa su Google è che se lasci, um, sai, qualsiasi altro stipendio in qualsiasi altra azienda sarà più basso. Hmm. Quindi penso che sia un sacrificio”. …
COPPOLA: “Voglio solo dire a tutti i non programmatori che davvero non compro l’idea che big tech sia politicamente neutrale, e penso che dobbiamo iniziare a incorporare questo in qualsiasi strategia che usiamo per avere una democrazia in futuro”.
L’atteggiamento di Coppola verso i suoi capi è ambivalente. Rispetta il CEO Sundar Pichai e non crede che lui o altri alti dirigenti di Google affermino intenzionalmente falsità nelle audizioni. Ma non può accettare le informazioni date come fatti oggettivi. Anche se Coppola insiste sul fatto che Google tratta i dati dei clienti in modo confidenziale e cerca di essere giusto, nota che bastano poche persone per influenzare un risultato: “E infatti, penso che basterebbero solo un paio di persone su un’organizzazione di 100.000, sapete, per assicurarsi che il prodotto sia in un certo modo…”
Non sta certo sostenendo che sia tutto una sorta di cospirazione; piuttosto, il favore mostrato a una “manciata di siti” che sono “al vetriolo” contro Trump è il risultato di un’opinione di gruppo concentrata a Google. Detto questo, insiste, si tratta di “un’interferenza nelle elezioni americane”
Coppola è stato ovviamente messo in congedo amministrativo. Ha iniziato una campagna di raccolta fondi, cercando le spese di sostentamento, “per trascorrere quattro mesi pubblicando contenuti su questioni di politica e tecnologia” dalla sua casa a New York City.
Anche alcuni democratici sono in ansia. Una candidata a lungo termine per la candidatura del Partito Democratico alla presidenza nel 2020, Tulsi Gabbard, sta facendo causa a Google perché “le azioni discriminatorie di Google contro la mia campagna sono il riflesso di quanto sia pericoloso il loro dominio completo sulla ricerca in internet”.
Una cosa su cui possiamo contare è un maggiore interesse pubblico su come sono costruiti gli algoritmi, un argomento che ha svuotato gli auditorium in passato.
Nota: Coppola ha ricevuto la sua laurea in ingegneria dall’Università di Waterloo e il suo MA in linguistica dalla Simon Fraser University, entrambi in Canada, e il suo dottorato in ingegneria dall’Università di Edimburgo, secondo il suo profilo Linked In.
Altra lettura: Anche gli algoritmi possono essere inconsapevolmente di parte, Vedi, per esempio,
L’IA si è insegnata a “non amare” le donne? No, il programma non si è insegnato nulla. Ma la situazione ha insegnato all’azienda qualcosa di importante su ciò che possiamo automatizzare con sicurezza.
e Un algoritmo può essere razzista? No, la macchina non ha opinioni. Elabora vasti tratti di dati. E, come risultato, le preoccupanti radici nascoste di alcuni dati sono esposte