Recentemente, o engenheiro sênior do Google Gregory Coppola entrou em contato com o grupo Watchdog Project Veritas para falar sobre o viés do Google que afeta as informações que os usuários obtêm sobre escolhas políticas. (Aqui está a entrevista.)
Coppola, que cresceu no Canadá, disse ao Projeto Veritas que ele tinha experimentado o Google como um lugar bastante neutro politicamente quando ele começou a trabalhar no Google Assistant lá pela primeira vez em 2014. As coisas mudaram durante as eleições de 2016 nos EUA quando “todas as empresas de tecnologia, todos em Nova York, todos no campo da ciência da computação basicamente acreditavam que” quem apoiava Donald Trump era um racista. Inconvenientemente para si mesmo, Coppola meio que gostava de Trump.
Como outra eleição americana se aproxima, ele transmitiu as suas preocupações ao Projecto Veritas. Do vídeo:
Narrator: Segundo Coppola, a agenda da Big Tech é perigosa, em grande parte, porque está escondida.
Coppola: Acho que tivemos um longo período, de dez anos, digamos, em que tivemos pesquisas e redes sociais que não tinham um viés político e nos acostumamos com a idéia de que a pesquisa de topo era isso, o Google era provavelmente a resposta. E Robert Epstein, que testemunhou perante o Congresso na semana passada, investigou e mostrou que a grande maioria das pessoas pensa que se algo é mais bem avaliado no Google Search do que outra história, então seria mais importante e mais correto. E, e não tivemos tempo para absorver o fato de que a tecnologia pode ter uma agenda. Quero dizer, é algo sobre o qual só começamos a falar agora. É por isso que estou a falar contigo.
Coppola está se referindo ao recente testemunho do psicólogo de pesquisa comportamental Robert Epstein (que se descreveu como “centro/ centro-esquerda” perante uma comissão do Senado):
Dados que recolhi desde 2016 mostram que o Google mostra ao público americano um conteúdo tendencioso a favor de um partido político (Epstein & Williams, 2019) – um partido de que eu gosto, mas isso é irrelevante. Nenhuma empresa privada deveria ter o direito ou o poder de manipular grandes populações sem o seu conhecimento. …
Alcedo a públicos diversos e diferentes porque as ameaças colocadas pelo Google e, em menor medida, pelo Facebook, são tão sérias que acho que todos no mundo precisam saber sobre elas. Ponho de lado as minhas próprias tendências políticas quando relato os meus dados e preocupações, porque os problemas que estas empresas apresentam eclipsam a política pessoal. Dito de outra forma, eu amo mais a humanidade, meu país e a democracia do que amo qualquer partido ou candidato em particular. E a democracia, tal como concebida originalmente, não pode sobreviver à Big Tech, tal como a tem actualmente.
Se vocês examinassem os dados que tenho coletado nos últimos 6 anos e meio, cada um de vocês colocaria de lado o partidarismo e colaboraria para reinar no extraordinário poder que o Google e o Facebook agora exercem com uma arrogância sem tréguas.
Robert Epstein, “Why Google Poses a Serious Threat to Democracy, and How to End That Threat (transcript)” no American Institute for Behavioral Research and Technology
Epstein oferece cinco “descobertas perturbadoras”, entre as quais
Em 2016, os resultados de busca tendenciosos gerados pelo algoritmo de busca do Google provavelmente impactaram os eleitores indecisos de uma forma que deu pelo menos 2,6 milhões de votos a Hillary Clinton (que eu apoiei). Sei disso porque preservei mais de 13 mil pesquisas relacionadas às eleições conduzidas por um grupo diversificado de americanos no Google, Bing e Yahoo nas semanas que antecederam as eleições, e os resultados da pesquisa do Google – que dominam a pesquisa nos EUA e em todo o mundo – foram significativamente tendenciosos a favor da secretária Clinton em todas as 10 posições na primeira página de resultados de pesquisa, tanto nos estados azuis quanto nos vermelhos. Robert Epstein, “Why Google Poses a Serious Threat to Democracy, and How to End That Threat (transcript)” no American Institute for Behavioral Research and Technology
Epstein’s testimony links up with earlier observations such as that “searches for Hillary Clinton did not autocomplete to words that were popular searches if they reflected negatively on the Democratic candidate”.
Os usuários, é claro, não sabem que o algoritmo está configurado dessa forma. Achamos que essa é a melhor informação disponível em algum sentido neutro. Mas como Coppola disse ao Project Veritas, os algoritmos – a série de comandos para computadores – “não se escrevem a si próprios”. As pessoas podem escrever suas próprias opiniões em um algoritmo, conscientemente ou não.
Em um artigo recente, Coppola oferece mais detalhes da mecânica de manipulação de opinião, usando o Google News como exemplo e escolhendo “donald trump” como assunto:
O site mais usado, CNN, é selecionado em 20% de todos os artigos! Em outras palavras, mesmo com os milhões de sites na Internet, 1 em cada 5 histórias sobre “donald trump” do Google News é da CNN.
Gregory Coppola, “Analisando o Google News: Introdução” em Média
O significado desse facto é que, entre as maiores redes de media americanas, pensa-se que a CNN interage com a actual Casa Branca da forma mais hostil. Por exemplo, a rede processou recentemente a Casa Branca por negação de um passe de imprensa a um dos seus repórteres.
Da transcrição parcial no Projeto Veritas:
… COPPOLA: Mas acho que eu apenas, você sabe, eu olho para a busca e olho para o Google News e vejo o que ele está fazendo e vejo executivos do Google indo ao Congresso e dizendo que ele não é manipulado. Não é político. E tenho tanta certeza que isso não é verdade. Que é, você sabe, torna-se muito menos divertido trabalhar no produto. Por isso, afecta-te assim tanto. Sim, definitivamente. Quero dizer, o problema do Google é que se deixares, sabes, qualquer outro salário em qualquer outra empresa será menor. Hmm. Então eu acho que é um sacrifício.” …
COPPOLA: “Só quero dizer a todos os não-programadores que não acredito na ideia de que a grande tecnologia é politicamente neutra, e acho que temos de começar a incorporar isso em qualquer estratégia que usemos para ter uma democracia a avançar.”
A atitude do Coppola para com os seus chefes é ambivalente. Ele respeita o CEO Sundar Pichai e não acredita que ele ou outros executivos de topo do Google afirmem intencionalmente falsidades em audiências. Mas ele não pode aceitar as informações dadas como fatos objetivos. Apesar de Coppola também insistir que o Google trata os dados dos clientes de forma confidencial e tenta ser justo, ele observa que são necessárias apenas algumas pessoas para influenciar um resultado: “E na verdade, eu acho que só seria preciso um casal de uma organização de 100.000, você sabe, para ter certeza de que o produto é de certa forma…”
Ele certamente não está alegando que tudo isso é algum tipo de conspiração; ao contrário, o favor mostrado a um “punhado de sites” que são “vitriolicamente opostos” ao Trump é o resultado da opinião concentrada do grupo no Google. Dito isto, ele insiste, equivale a “interferência nas eleições americanas”
Coppola foi, naturalmente, colocado em licença administrativa. Ele iniciou uma campanha de angariação de fundos, procurando despesas de subsistência, “para passar quatro meses a publicar conteúdo sobre questões políticas e tecnológicas” a partir da sua casa em Nova Iorque.
Alguns Democratas também estão a ficar ansiosos. Tulsi Gabbard, candidato a presidente do Partido Democrata em 2020, está processando o Google porque “as ações discriminatórias do Google contra a minha campanha refletem o quanto é perigoso o seu completo domínio sobre a pesquisa na internet”.
Uma coisa com que podemos contar é com um maior interesse público na forma como os algoritmos são construídos, um assunto que já esvaziou auditórios no passado.
Nota: Coppola recebeu o seu diploma de engenharia da Universidade de Waterloo e o seu mestrado em linguística da Universidade Simon Fraser, ambas no Canadá, e o seu doutoramento em engenharia da Universidade de Edimburgo, de acordo com o seu perfil Linked In.
Outra leitura: Algoritmos também podem ser incógnitos, Veja, por exemplo,
Did AI ensina-se a “não gostar” de mulheres? Não, o programa não ensinou nada a si mesmo. Mas a situação ensinou à empresa algo importante sobre o que podemos automatizar com segurança,
e
Pode um algoritmo ser racista? Não, a máquina não tem opinião. Ela processa vastas extensões de dados. E, como resultado, as preocupantes raízes ocultas de alguns dados são expostas