Google-ingenjör avslöjar sökmotorbias

När nyligen kontaktade Gregory Coppola, senior Google-ingenjör, övervakningsgruppen Project Veritas för att tala om Googles bias som påverkar den information som användarna får om politiska val. (Här är intervjun.)

Coppola, som är uppvuxen i Kanada, berättade för Project Veritas att han hade upplevt Google som en ganska neutral plats politiskt när han började arbeta med Google Assistant där 2014. Saker och ting förändrades under valet i USA 2016 när ”alla teknikföretag, alla i New York, alla inom datavetenskap i princip trodde att” alla som stödde Donald Trump var rasister. Obekvämt för honom själv gillade Coppola på sätt och vis Trump.

När ännu ett amerikanskt val står för dörren vidarebefordrade han sin oro till Project Veritas. Från videon:

Värdaren: Enligt Coppola är Big Techs agenda farlig, till stor del för att den är dold.

Coppola: Jag tror att vi hade en lång period, i tio år, låt oss säga, där vi hade sökningar och sociala medier som inte hade någon politisk fördomsfullhet, och vi blev liksom vana vid idén att toppsök var det, Google var förmodligen svaret. Och Robert Epstein, som vittnade inför kongressen förra veckan, undersökte detta och visade att den stora majoriteten av människor tror att om något är högre rankat på Google Search än en annan artikel, så skulle det vara viktigare och mer korrekt. Och, och vi har inte haft tid att ta till oss det faktum att tekniken kan ha en agenda. Jag menar, det är något som vi först nu har börjat prata om. Det är därför jag talar till er.

Coppola hänvisar till det vittnesmål som nyligen avgavs av den mycket publicerade beteendeforskningspsykologen Robert Epstein (som beskrev sig själv som ”center/center-vänster” inför en senatskommitté):

Data som jag har samlat in sedan 2016 visar att Google visar innehåll för den amerikanska allmänheten som är partisk till förmån för ett politiskt parti (Epstein & Williams, 2019) – ett parti som jag råkar gilla, men det är irrelevant. Inget privat företag bör ha vare sig rätten eller makten att manipulera stora befolkningar utan deras vetskap. …

Jag når ut till många, olika målgrupper eftersom hoten från Google, och i mindre utsträckning Facebook, är så allvarliga att jag anser att alla i världen måste känna till dem. Jag lägger mina egna politiska åsikter åt sidan när jag rapporterar mina uppgifter och farhågor eftersom de problem som dessa företag utgör överskuggar personlig politik. För att uttrycka det på ett annat sätt: jag älskar mänskligheten, mitt land och demokratin mer än jag älskar något särskilt parti eller någon särskild kandidat. Och demokratin som den ursprungligen var tänkt kan inte överleva Big Tech i dess nuvarande form.

Om ni skulle granska de uppgifter som jag har samlat in under de senaste sex och ett halvt åren skulle var och en av er lägga partiskhet åt sidan och samarbeta för att tygla den extraordinära makt som Google och Facebook nu utövar med oförskämd arrogans.

Robert Epstein, ”Why Google Poses a Serious Threat to Democracy, and How to End That Threat (transcript)” at American Institute for Behavioral Research and Technology

Epstein erbjuder fem ”oroväckande resultat”, bland annat

Under 2016 påverkade snedvridna sökresultat som genererades av Googles sökalgoritm troligen obeslutsamma väljare på ett sätt som gav minst 2,6 miljoner röster till Hillary Clinton (som jag stödde). Jag vet detta eftersom jag bevarade mer än 13 000 valrelaterade sökningar som utfördes av en varierad grupp amerikaner på Google, Bing och Yahoo under veckorna före valet, och Googles sökresultat – som dominerar sökningar i USA och i hela världen – var betydligt vinklade till förmån för sekreterare Clinton på alla 10 positioner på första sidan av sökresultaten i både blåa stater och röda stater.

Robert Epstein, ”Why Google Poses a Serious Threat to Democracy, and How to End That Threat (transcript)” at American Institute for Behavioral Research and Technology

Epstein’s vittnesmål knyter an till tidigare observationer som att ”sökningar efter Hillary Clinton inte automatiskt kompletterade till ord som var populära sökningar om de reflekterade negativt på den demokratiska kandidaten .”.

Användarna vet naturligtvis inte att algoritmen är konfigurerad på det sättet. Vi anser att det är den bästa informationen som finns tillgänglig i någon neutral mening. Men som Coppola berättade för Project Veritas, algoritmerna – serien av kommandon till datorer – ”skriver inte sig själva”. Människor kan skriva in sina egna åsikter i en algoritm, medvetet eller på annat sätt.

I en nyligen publicerad artikel ger Coppola fler detaljer om mekaniken för opinionsmanipulation, med Google News som exempel och genom att välja ”donald trump” som ämne:

Den mest använda sajten, CNN, väljs i 20 procent av alla artiklar! Med andra ord, även om det finns miljontals webbplatser på Internet, kommer 1 av 5 artiklar om ”donald trump” från Google News från CNN.

Gregory Coppola, ”Analyzing Google News: Introduktion” på Medium

Den betydelse detta faktum har är att bland större amerikanska medienätverk anses CNN interagera med det nuvarande Vita huset på det mest fientliga sättet. Nätverket stämde till exempel nyligen Vita huset för att en av dess reportrar nekats ett presspass.

Från den partiella utskriften på Project Veritas:

… COPPOLA: Men jag antar att jag bara, du vet, jag tittar på sökning och jag tittar på Google News och jag ser vad det gör och jag ser Googles chefer gå till kongressen och säga att det inte är manipulerat. Det är inte politiskt. Och jag är så säker på att det inte är sant. Det är, du vet, det blir mycket mindre roligt att arbeta med produkten. Så det påverkar dig så mycket. Ja, definitivt. Jag menar, grejen med Google är att om du slutar, så kommer alla andra löner på alla andra företag att vara lägre. Hmm. Så jag tror verkligen att det är en uppoffring.” …

COPPOLA: ”Jag vill bara säga till alla icke-programmerare att jag verkligen inte köper idén om att stor teknik är politiskt neutral, och jag tror att vi måste börja införliva det i vilken strategi vi än använder för att ha en demokrati framöver.”

Coppolas inställning till sina chefer är ambivalent. Han respekterar vd Sundar Pichai och tror inte att han eller andra toppchefer inom Google avsiktligt hävdar osanningar vid utfrågningar. Men han kan inte acceptera den information som ges som objektiva fakta. Även om Coppola också insisterar på att Google behandlar kunduppgifter konfidentiellt och försöker vara rättvis, konstaterar han att det bara krävs ett fåtal personer för att påverka ett resultat: ”Och i själva verket tror jag att det bara krävs ett par stycken i en organisation med 100 000 personer för att se till att produkten blir på ett visst sätt…”

Han påstår verkligen inte att allt är någon slags konspiration, utan att den förmån som visas för en ”handfull webbplatser” som är ”vitrioliskt motståndare” till Trump är resultatet av en koncentrerad gruppopinion hos Google. Med detta sagt, insisterar han på att det är ”inblandning i det amerikanska valet”.

Coppola har förstås blivit administrativt tjänstledig. Han har startat en insamlingskampanj för att söka pengar för sitt uppehälle ”för att tillbringa fyra månader med att publicera innehåll om frågor inom politik och teknik” från sitt hem i New York.

En del demokrater börjar också bli oroliga. Tulsi Gabbard, som är en av de mest troliga kandidaterna till det demokratiska partiets presidentkandidat 2020, stämmer Google eftersom ”Googles diskriminerande åtgärder mot min kampanj återspeglar hur farlig deras fullständiga dominans över sökningar på internet är”.

En sak vi kan räkna med är ett större allmänt intresse för hur algoritmer konstrueras, ett ämne som tidigare har tömt auditorier.

Note: Coppola tog sin ingenjörsexamen från University of Waterloo och sin magisterexamen i lingvistik från Simon Fraser University, båda i Kanada, och sin doktorsexamen i teknik från University of Edinburgh, enligt hans Linked In-profil.

Fördjupad läsning: Se till exempel

Did AI teach itself to ”not like” women? Nej, programmet har inte lärt sig något självt. Men situationen lärde företaget något viktigt om vad vi säkert kan automatisera.

och

Kan en algoritm vara rasistisk? Nej, maskinen har ingen åsikt. Den bearbetar stora mängder data. Och som ett resultat av detta avslöjas de oroväckande dolda rötterna i vissa uppgifter

.

Lämna ett svar

Din e-postadress kommer inte publiceras.