Google-ingeniør afslører søgemaskinens skævhed

Den ledende Google-ingeniør Gregory Coppola kontaktede for nylig overvågningsgruppen Project Veritas for at tale om Googles skævhed, der påvirker de oplysninger, som brugerne får om politiske valg. (Her er interviewet.)

Coppola, der er opvokset i Canada, fortalte Project Veritas, at han havde oplevet Google som et ret neutralt sted politisk set, da han først begyndte at arbejde på Google Assistant der i 2014. Tingene ændrede sig under valget i USA i 2016, da “alle tech-virksomheder, alle i New York og alle inden for computervidenskab grundlæggende troede, at” alle, der støttede Donald Trump, var racister. Ubelejligt nok for ham selv kunne Coppola på en måde godt lide Trump.

Da endnu et amerikansk valg truer, videregav han sine bekymringer til Project Veritas. Fra videoen:

Vedtaler: Ifølge Coppola er Big Tech’s dagsorden farlig, i stor udstrækning fordi den er skjult.

Coppola: Jeg tror, vi havde en lang periode, lad os sige ti år, hvor vi havde søgninger og sociale medier, der ikke havde en politisk bias, og vi blev ligesom vant til tanken om, at topsøgning var det, Google var nok svaret. Og Robert Epstein, som vidnede for Kongressen i sidste uge, undersøgte det og viste, at langt de fleste mennesker mener, at hvis noget er bedre vurderet på Google Search end en anden historie, så er det vigtigere og mere korrekt. Og, og vi har ikke haft tid til at indse, at teknologien måske har en dagsorden. Jeg mener, det er noget, vi først er begyndt at tale om nu. Det er derfor, jeg taler til dig.

Coppola henviser til det nylige vidneudsagn fra den bredt publicerede adfærdsforskningspsykolog Robert Epstein (som beskrev sig selv som “centrum/centrum-venstre” over for et udvalg i Senatet):

Data, som jeg har indsamlet siden 2016, viser, at Google viser indhold til den amerikanske offentlighed, der er forudindtaget til fordel for ét politisk parti (Epstein & Williams, 2019) – et parti, som jeg tilfældigvis kan lide, men det er irrelevant. Ingen privat virksomhed bør have hverken ret eller magt til at manipulere store befolkninger uden deres viden. …

Jeg henvender mig til diverse, forskellige målgrupper, fordi de trusler, som Google og i mindre grad Facebook udgør, er så alvorlige, at jeg mener, at alle i verden har brug for at vide noget om dem. Jeg sætter mine egne politiske holdninger til side, når jeg rapporterer om mine data og bekymringer, fordi de problemer, som disse virksomheder udgør, overskygger personlig politik. For at sige det på en anden måde: Jeg elsker menneskeheden, mit land og demokratiet mere end jeg elsker et bestemt parti eller en bestemt kandidat. Og demokratiet, som det oprindeligt var tænkt, kan ikke overleve Big Tech, sådan som det har fået magt i dag.

Hvis I skulle undersøge de data, som jeg har indsamlet i løbet af de sidste seks og et halvt år, ville hver eneste af jer lægge partiskhed til side og samarbejde om at tøjle den ekstraordinære magt, som Google og Facebook nu udøver med uhæmmet arrogance.

Robert Epstein, “Why Google Poses a Serious Threat to Democracy, and How to End That Threat (transcript)” på American Institute for Behavioral Research and Technology

Epstein tilbyder fem “foruroligende resultater”, blandt hvilke er

I 2016 påvirkede skæve søgeresultater genereret af Googles søgealgoritme sandsynligvis de ubeslutsomme vælgere på en måde, der gav mindst 2,6 millioner stemmer til Hillary Clinton (som jeg støttede). Jeg ved dette, fordi jeg bevarede mere end 13.000 valgrelaterede søgninger udført af en forskelligartet gruppe af amerikanere på Google, Bing og Yahoo i ugerne op til valget, og Googles søgeresultater – som dominerer søgningen i USA og på verdensplan – var betydeligt forudindtaget til fordel for sekretær Clinton på alle 10 positioner på første side af søgeresultaterne i både blå og røde stater.

Robert Epstein, “Why Google Poses a Serious Threat to Democracy, and How to End That Threat (transcript)” på American Institute for Behavioral Research and Technology

Epsteins vidneudsagn knytter an til tidligere observationer som f.eks. at “søgninger efter Hillary Clinton ikke autokompletterede til ord, der var populære søgninger, hvis de afspejlede negativt om den demokratiske kandidat .”

Brugere ved naturligvis ikke, at algoritmen er konfigureret på den måde. Vi mener, at det er den bedste information, der er tilgængelig i en vis neutral forstand. Men som Coppola fortalte Project Veritas, så “skriver algoritmerne – rækken af kommandoer til computere – “ikke sig selv”. Folk kan skrive deres egne holdninger ind i en algoritme, bevidst eller ubevidst.

I en nyere artikel giver Coppola flere detaljer om mekanikken bag meningsmanipulation, idet han bruger Google News som eksempel og vælger “donald trump” som emne:

Det mest brugte websted, CNN, er valgt i 20 % af alle artikler! Med andre ord, selv med de millioner af websteder på internettet, er 1 ud af hver 5 historier om “donald trump” fra Google News fra CNN.

Gregory Coppola, “Analyzing Google News: Introduction” på Medium

Den betydning af denne kendsgerning er, at blandt de større amerikanske medienetværk menes CNN at interagere med det nuværende Hvide Hus på den mest fjendtlige måde. For eksempel sagsøgte netværket for nylig Det Hvide Hus over nægtelsen af et pressekort til en af dets journalister.

Fra den delvise udskrift på Project Veritas:

… COPPOLA: Men jeg tror jeg bare, du ved, jeg ser på søgning og jeg ser på Google News, og jeg ser, hvad det gør, og jeg ser Google-chefer gå til Kongressen og sige, at det ikke er manipuleret. Det er ikke politisk. Og jeg er bare så sikker på, at det ikke er sandt. At det er, du ved, det bliver meget mindre sjovt at arbejde med produktet. Så det påvirker dig så meget. Ja, helt sikkert. Jeg mener, sagen med Google er, at hvis du forlader Google, vil enhver anden løn i enhver anden virksomhed være lavere. Hmm. Så jeg tror virkelig, at det er et offer.” …

COPPOLA: “Jeg vil bare sige til alle de ikke-programmører, at jeg virkelig ikke køber ideen om, at big tech er politisk neutral, og jeg tror, at vi skal begynde at indarbejde det i den strategi, vi bruger for at have et demokrati fremadrettet.”

Coppolas holdning til sine chefer er ambivalent. Han respekterer administrerende direktør Sundar Pichai og mener ikke, at han eller andre topchefer i Google bevidst hævder usandheder under høringer. Men han kan ikke acceptere de oplysninger, der gives, som objektive fakta. Selv om Coppola også insisterer på, at Google behandler kundedata fortroligt og forsøger at være fair, bemærker han, at der kun skal få personer til at påvirke et resultat: “Og faktisk tror jeg, at det kun kræver et par stykker ud af en organisation på 100.000, du ved, for at sikre, at produktet bliver på en bestemt måde…”

Han hævder bestemt ikke, at det hele er en slags sammensværgelse; snarere er den fordel, der vises til en “håndfuld websteder”, der er “vitriolsk modstandere” af Trump, resultatet af en koncentreret gruppeopinion hos Google. Når det er sagt, insisterer han på, at det svarer til “indblanding i det amerikanske valg.” Coppola er naturligvis blevet sat på administrativ orlov. Han har startet en indsamlingskampagne, hvor han søger at få dækket sine leveomkostninger “for at bruge fire måneder på at udgive indhold om emner inden for politik og teknologi” fra sit hjem i New York. En del demokrater er også ved at blive urolige. En af de mest håbløse kandidater til det demokratiske partis præsidentkandidat i 2020, Tulsi Gabbard, sagsøger Google, fordi “Googles diskriminerende handlinger mod min kampagne afspejler, hvor farlig deres fuldstændige dominans over internetsøgning er”.

En ting vi kan regne med er større offentlig interesse for, hvordan algoritmer er konstrueret, et emne, der tidligere har tømt auditorierne.

Note: Coppola har fået sin ingeniøruddannelse fra University of Waterloo og sin MA i lingvistik fra Simon Fraser University, begge i Canada, og sin doktorgrad i ingeniørvidenskab fra University of Edinburgh, ifølge hans Linked In-profil.

Videre læsning: Algoritmer kan også være ubevidst forudindtaget, se f.eks.

Did AI teach itself to “not like” women? Nej, programmet har ikke lært sig selv noget. Men situationen lærte virksomheden noget vigtigt om, hvad vi roligt kan automatisere.

og

Kan en algoritme være racistisk? Nej, maskinen har ingen mening. Den behandler enorme mængder af data. Og som følge heraf bliver de bekymrende skjulte rødder i nogle data afsløret

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.