Como os voluntários da Wikipedia se tornaram a melhor arma da web contra a desinformação

Na era do Facebook, os editores voluntários por trás do site de aparência arcaica transformaram a Wikipedia em uma força formidável para a verdade.

Como os voluntários da Wikipedia se tornaram a melhor arma da web contra a desinformação

Por alguns minutos perto do final de seu primeiro debate presidencial, Mike Bloomberg estava morto. Às 21h38 Horário do leste, um usuário da Wikipedia chamado DQUACK02 adicionou algum texto à página da Wikipedia para o ex-candidato presidencial democrata e prefeito da cidade de Nova York:

data_de_ morte = {02}; | death_place = [[Las Vegas, Nevada]], EUA; | death_cause = [[sendo esfaqueado por Warren, Biden e Sanders]].

Em três minutos, outro usuário chamado Cgmusselman reverteu a página. A essa altura, as inevitáveis ​​capturas de tela e tweets de piadas já haviam começado a se espalhar. Foi uma fraude óbvia e um exemplo bastante caricatural da Wikipedia em seu pior - a razão pela qual muitas pessoas ainda acreditam que ela não é confiável: qualquer um pode editá-la! Mas também foi a Wikipedia no seu melhor: qualquer pessoa também pode editar uma edição!



A maioria dessas edições são pequenas melhorias no fraseado ou no conteúdo, algumas são obras-primas e outras são vandalismo, diz Cgmusselman, que é Charley Musselman, um físico aposentado de 73 anos de Massachusetts que por acaso notou a morte de Bloomberg enquanto verificava duas vezes a idade de seu senador e de sua então candidata preferida, Elizabeth Warren. (Ela é três anos, dois meses mais nova do que eu, ele relata.)

Cgmusselman não está entre a minoria experiente de editores que tendem a patrulhar as linhas de frente da guerra da Wikipedia contra a desinformação - suas centenas de edições envolveram principalmente edição de texto. Mas, como aqueles outros editores, ele colocou sua fé no poder da multidão para ser justo e honesto. O peso da sinceridade, da verdade e da boa vontade enterrará aos poucos a falsidade e a malícia, disse-me ele por e-mail.

O peso da sinceridade, da verdade e da boa vontade enterrará pouco a pouco a falsidade e a malícia.

Cgmusselman

Em meio ao caos de batalhas partidárias, crises epistêmicas e propaganda patrocinada pelo estado, é bom pensar que pessoas de bom coração que se preocupam com uma realidade compartilhada podem derrotar todos os b.s. lá fora. E há muito disso. Se 2016 foi a estreia de um novo tipo de guerra de informação, este ano promete ser algo como a sequência mais sombria e cara. No entanto, enquanto lugares como Facebook, YouTube e Twitter lutam para evitar uma enxurrada de conteúdo falso, com sua mistura dispersa de políticas, verificadores de fatos e algoritmos, uma das armas mais robustas da web contra a desinformação é um site de aparência arcaica escrito por qualquer pessoa com uma conexão à Internet e moderada por uma equipe anônima de voluntários.

Acho que há uma parte disso que é encorajadora, que diz que um projeto global radicalmente aberto e colaborativo pode construir um dos sites mais confiáveis ​​da internet, diz Ryan Merkley, chefe de equipe da Fundação Wikimedia, o sem fins lucrativos que fornece suporte para a comunidade de editores da Wikipedia.

Há outra parte disso que é bastante triste, acrescenta ele, porque está claro que parte de ser um dos sites mais confiáveis ​​da Internet é porque tudo o mais desmoronou ao nosso redor.

Lições do banco de conhecimento da Internet

A Wikipedia não está imune à manipulação que se espalha em outros lugares online, mas provou ser um recurso amplamente confiável - não apenas para os tópicos que você encontraria em uma velha enciclopédia encadernada em couro, mas também para notícias e eventos atuais controversos também . Vinte anos depois de estourar na web, agora é um pilar de fato em nossa infraestrutura de verificação de fatos. Suas páginas geralmente ocupam o topo da pesquisa do Google e alimentam os painéis de conhecimento que aparecem no topo desses resultados. Os esforços da própria Big Tech para impedir a desinformação também contam com a Wikipedia: os espectadores do YouTube em busca de vídeos sobre a conspiração do pouso na lua podem ver links para páginas da Wikipedia desmascarando essas teorias, enquanto o Facebook tem experimentado mostrar aos usuários links para a enciclopédia quando eles visualizam postagens de sites duvidosos .

Contra o cenário febril de eleições e a torrente de notícias na velocidade do Twitter, quando o menor fragmento digital pode moldar o pensamento político dos americanos, as lições da Wikipedia sobre como proteger a verdade estão cada vez mais valiosas.

Acho que nunca foi tão importante que as pessoas tenham acesso confiável ao conhecimento.

Ryan Merkley

Não acho que nunca foi mais importante para as pessoas ter acesso confiável ao conhecimento, fazer escolhas sobre suas vidas, diz Merkley, que também é um colega Berkman de 2020 pesquisando desinformação. Quer seja sobre em quem você vota ou como você responde às mudanças climáticas, é muito importante. E errar terá efeitos potencialmente catastróficos para nossas famílias e pessoas comuns, para sua saúde e para o modo como vivemos.

O escopo da Wikipedia é imenso - em janeiro, Maria Elise Turner Lauder , um professor canadense, lingüista e filantropo, tornou-se a sexta milionésima entrada da edição em inglês - mas, ao contrário de partes da web onde a informação tóxica tende a se espalhar, a enciclopédia tem uma grande vantagem: seu objetivo não é escala. Não está vendendo nada, não está incentivando o engajamento, não está tentando fazer com que você gaste mais tempo nisso. Graças a doações de milhares de doadores em todo o mundo, não há anunciantes ou investidores para agradar, nem algoritmos para coletar dados, despertar emoções ou personalizar páginas; todo mundo vê a mesma coisa. Esse espírito filantrópico impulsiona os voluntários da Wikipedia, também, que vêm ao site não para compartilhar memes ou piadas ou mesmo discutir as notícias, mas, maravilhosamente, para construir um relato confiável da realidade.

É a realização de um grande sonho perene, disse-me Musselman, apontado por Babel, Alexandria e o Guia do Mochileiro: Todo o conhecimento ao seu alcance.

Ainda há muito o que fazer para chegar lá. Como muitos dos próprios editores do site admitem prontamente em dezenas de fóruns, a comunidade é atormentada por problemas com diversidade e assédio . Pensa-se que apenas cerca de 20% da comunidade de edição é do sexo feminino, e apenas cerca de 18% dos artigos biográficos da Wikipedia são sobre mulheres. O preconceito e os pontos cegos que podem resultar desses problemas no local de trabalho são prejudiciais para uma enciclopédia destinada a ser para todos. A localização também é uma preocupação dado o objetivo da Wikipedia de tornar o conhecimento disponível para todo o mundo: A enciclopédia existe atualmente em 299 idiomas, mas a versão em inglês ainda supera as outras, compreendendo 12% do total de artigos do projeto.

A comunidade também tem lutado para reter sangue novo. Editores costumam acusar uns aos outros de parcialidade, e alguns argumentam que suas páginas políticas exibem uma inclinação centro-esquerda, embora pesquisa recente sugere que a devoção da comunidade às suas políticas editoriais diminui com o tempo. Editores menos experientes também podem ser afastados por veteranos agressivos que falam das regras às vezes misteriosas da Wikipedia para defender sua posição, especialmente em torno das páginas políticas mais polêmicas da enciclopédia.

como usar o calendário do google de forma eficaz

Eu vi alguns se tornarem contribuidores sólidos, mas parece que muitos deles, especialmente [aqueles] que tentam pular para essa área realmente sensível, ficam ambiciosos demais, são derrubados, alegam preconceito de esquerda e vão embora, diz Muboshgu, um administrador e um dos editores de confiança da Wikipedia, que pediu para não ser identificado por medo de assédio. Mas em torno de alguns artigos sensíveis, uma abordagem vigorosa para novatos pode ser difícil de abalar, editores como ele argumentam: há muitos trolls, hacks pagos, propagandistas e partidários na Wikipedia para baixar a guarda.

A maior ameaça é que perdemos de vista o que é realmente verdade.

Muboshgu

Muboshgu, que na vida real trabalha como psicólogo na área da baía, passou mais de uma década e milhares de edições lutando contra a desinformação nas páginas políticas dos EUA. Hoje em dia, manter entradas como essas livres de falsidades é mais difícil em um cenário barulhento de desconfiança e manipulação, no qual vários políticos estão trabalhando arduamente para desacreditar a mídia.

A maior ameaça, diz ele, é que perdemos de vista o que é realmente verdade.

Um corpo de regras bizantino

Quando você terminar de ler este parágrafo, pessoas de todo o mundo terão mudado cerca de 100 coisas na Wikipedia. Algumas dessas pessoas podem estar logadas, identificáveis ​​por um nome de usuário e um perfil, o que lhes dá permissão para editar tudo, exceto as páginas mais confidenciais da enciclopédia. Muitos outros editores serão anônimos, identificados apenas por um endereço IP. Alguns podem estar no site para se promover, sua ideia, sua empresa, seu cliente. Um editor desonesto pode querer matar um candidato à presidência ou adicionar algumas palavras aqui e ali para semear dúvidas sobre seu histórico, ou embelezá-lo. Talvez eles apóiem ​​a campanha do candidato ou talvez estejam em sua folha de pagamento; talvez - no caso de um usuário misterioso que acompanhou de perto a página da Wikipedia de Pete Buttigieg - eles são secretamente Pete Buttigieg. (A campanha Buttigieg negou isso .)

Apesar dos trolls e propagandistas, a maioria dos erros, especialmente em páginas polêmicas e com muito tráfego, desaparece em minutos ou horas, graças à sua falange de voluntários dedicados. (Dos 138 milhões de usuários registrados da Wikipedia, cerca de 138.000 editaram ativamente no mês passado.) O site é autogerido de acordo com um corpo bizantino de regras que visam a cortesia e mostrar seu trabalho, ética jornalística baseada em reportagens precisas e equilibradas . Os bots vigilantes criados pela comunidade podem alertar os wikipedistas sobre alguns comportamentos suspeitos básicos e administradores pode usar restrições para bloquear temporariamente as páginas mais vulneráveis, protegendo-as de editores que não estão logados.

Mas se você fizer login e tentar atualizar um artigo sobre um tópico controverso ou que mereça notícias - pense em Jerusalém Oriental, Bernie Sanders, a interferência russa nas eleições de 2020 nos Estados Unidos, o coronavírus - sua edição será examinada de perto, talvez revertida por outro editor, e pode se tornar o assunto de um debate febril. Atrás de cada artigo há uma página de discussão, um fórum onde os editores discutem o que uma entrada deve ou não dizer. Aqui, os veteranos podem jogar milhares de palavras uns para os outros ao mesmo tempo. Alguns fazem seus casos com floreios retóricos impressionantes e outros com referência exaustiva às políticas do site, como NOR (sem pesquisa original), NOTABLE (um determinado tópico merece uma página própria?) E BLP, que descreve os padrões mais rígidos para biografias de vida pessoas. Editores veteranos também acompanham tópicos propensos a desinformação, enquanto grupos como o Ceticismo de Guerrilha na Wikipedia, que se organiza na um grupo dedicado do Facebook , patrulha regularmente páginas polêmicas sobre vacinas, alienígenas e várias formas de pseudociência.

Perguntei a Betty Wills, uma produtora de televisão e avó do Texas que fez milhares de edições na Wikipedia sob o nome de Atsme, quais tópicos tendiam a ser os mais desafiadores quando se trata de combater falsidades e meias-verdades.

Seu nome aparece em artigos que você nem imaginaria - incluindo o artigo Foda-se. LOL.

Atsme

Essa é fácil, ela escreveu em um e-mail. Qualquer coisa e tudo Trump. O nome dele aparece em artigos que você nem imaginaria - incluindo o artigo Porra . LOL.

Tópicos relacionados a Trump frequentemente monopolizam o tempo dos editores. Em seu página de conversa , editores exasperados tomaram a atitude incomum de anexar uma lista de regras no topo, com base no consenso atual da comunidade. Não inclua alegações de má conduta sexual na seção principal, adverte um. Outros incluem: omitir a menção da alegada batmofobia / medo de encostas de Trump, não incluir nenhum parágrafo sobre a saúde mental de Trump e não chamar Trump de 'mentiroso' na voz da Wikipedia. Em vez disso, os editores aconselham que esta afirmação pode ser incluída na lede do artigo: Trump fez muitas declarações falsas ou enganosas durante sua campanha e presidência. As declarações foram documentadas por verificadores de fatos , e a mídia descreveu amplamente o fenômeno como sem precedentes na política americana.

A ascensão política do presidente também coincidiu com um aumento na desinformação nas páginas políticas da Wikipedia.

Tivemos sérios desafios editoriais nos artigos relacionados à política americana desde os primeiros dias da campanha de 2016, diz P., um editor que passou anos lutando contra a desinformação e que pediu para não usar nem mesmo seu nome de usuário por medo de assédio . Suas patrulhas incluíram locais altamente carregados - Gun Politics nos Estados Unidos, Rudy Giuliani, o teoria da conspiração perpetuado pelo presidente Trump que havia um espião do governo em sua campanha. Mas, como outros editores de longa data, ele se esforça para deixar sua política na tela de login, por deferência ao trabalho.

É como qualquer outro local de trabalho que pode ser interrompido por alguns colegas mal equipados ou mal informados. O problema aqui é que, claro, qualquer pessoa pode avançar e editar, diz ele.

Mesmo nos fóruns de discussão mais acalorados, os wikipedistas aspiram ao AGF ou presumem de boa fé. Mas quando isso e tudo mais falhar, os editores podem recorrer ao que é efetivamente um crescente corpo de jurisprudência e apresentar seus argumentos a um Comitê de Arbitragem de último recurso, ou ArbCom, um tribunal virtual composto por 15 administradores eleitos. Se um editor desfez repetidamente o trabalho de outros editores, é perturbador , ou parece ser um troll, eles podem ser considerados NOTHERE - claramente não estão aqui para construir uma enciclopédia - e podem ser bloqueado ou mesmo banido .

Muito desse mau comportamento é resultado do que os editores da Wikipedia chamam de COI, ou edição de conflito de interesses , que tem ameaçado a integridade do site desde seus primeiros anos. A comunidade concordou em permitir que editores sejam pagos por seu trabalho, desde que revelem seus clientes, e tal edição é desaprovada por questões políticas ou outros assuntos delicados. Mas a regra pode ser difícil de aplicar. A propaganda nas páginas da Wikipedia tem sido uma indústria artesanal: de acordo com uma investigação por Ashley Feinberg publicado no ano passado por HuffPost , Facebook, NBC e Axios estavam entre as empresas que supostamente pagaram Fast Company O ex-chefe da digital Ed Sussman para fazer o controle de danos às páginas da Wikipedia. Contas Sockpuppet , uma ferramenta favorita entre os manipuladores pagos da Wikipedia, também são excessivos e podem levar os administradores a suspender ou banir usuários.

A guerra contra a verdade

A batalha da Wikipedia contra a desinformação depende de um de seus princípios fundamentais: os editores devem fazer backup de cada fato com uma fonte confiável, ou RS. A verdade na Wikipedia não é baseada na experiência em primeira mão ou mesmo no bom senso, mas pelo que suas regras chamam de fontes publicadas de terceiros confiáveis. Claro, como tudo o mais, o que conta como confiável é em debate . Tudo o que os wikipedistas fazem é discutir sobre a qualidade de nossas fontes, o cofundador da Wikipedia Jimmy Wales brincou em um recente painel sobre desinformação .

Por que as pessoas estão postando até amanhã?

Tudo o que os wikipedistas fazem é discutir sobre a qualidade de nossas fontes.

Jimmy Wales

Em torno de alguns de seus tópicos mais polêmicos nos EUA, esses argumentos podem revelar uma mistura preocupante de dietas de informação divididas e um excesso de mídia supostamente confiável. A desinformação chega até nós de todas as direções, e esse é um fator importante a se ter em mente ao citar fontes, diz Wills.

O problema, diz ela, é agravado pela mídia de notícias clickbait e uma tendência entre alguns para a edição inadvertida de pontos de vista, independentemente da persuasão política.

Outro problema é que às vezes até as fontes confiáveis ​​podem ser irregulares. Quando a desinformação chega a fontes geralmente confiáveis, infelizmente também pode acabar na Wikipedia, diz Molly White, uma administradora de Boston que atende pelo nome de usuário GorillaWarfare.

Para ajudar a manter os editores sob controle, os administradores mantêm uma lista contínua de mais de duas dúzias de fontes não confiáveis, que agora inclui sites como o Occupy Democrats, o tabloide britânico The Daily Mail e Breitbart News, que foi criticado por reportagens imprecisas e incendiárias. Por outro lado, no ano passado, o Facebook incluiu Breitbart em uma nova seção de seu aplicativo dedicada ao jornalismo profundamente noticiado e bem informado, com o objetivo de representar o que o CEO Mark Zuckerberg chamou uma diversidade de pontos de vista.

A Wikipedia segue outro caminho: seus editores também se esforçam para incluir diferentes pontos de vista, mas quaisquer afirmações, citações ou estatísticas devem ser apoiadas por fontes confiáveis ​​e apresentadas de forma neutra e equilibrada. Outro princípio fundamental, NÃO , ou ponto de vista neutro, significa representar de forma justa, proporcional e, na medida do possível, sem viés editorial, todos os Visualizações que tem sido publicado por fontes confiáveis em um tópico.

Às vezes, os editores podem chegar a um acordo sobre como alcançar NPOV - quantas palavras dedicar a uma determinada controvérsia ou se um processo deve ser mencionado na biografia de uma pessoa viva - apenas para o debate recomeçar alguns dias depois. Durante uma prolongada batalha de edição no artigo sobre o escândalo Trump-Ucrânia , Muboshgu repetidamente rechaçou os esforços de outros editores para incluir o nome do suposto denunciante que primeiro relatou o telefonema que gerou o inquérito de impeachment.

Se o denunciante deseja permanecer anônimo, deve permanecer anônimo, diz ele. Enquanto isso, não há confirmação de que a pessoa supostamente o denunciante é realmente o denunciante.

Conforme as conversas sobre impeachment aumentaram durante o verão e outono de 2019, os editores também se esforçaram para responder aos ataques a Joe Biden e sua família, lutando contra edições sutis e acréscimos que sugeriam corrupção por parte do líder presidencial. Seu filho Hunter serviu por cinco anos no conselho de administração da maior empresa de gás da Ucrânia, a Burisma, durante um período em que os promotores estavam investigando a empresa. A investigação fracassou e, mais tarde, o vice-presidente Biden pressionou a Ucrânia a demitir seu principal promotor, que foi amplamente considerado deficiente em perseguir a corrupção no país.

Na página de discussão de Hunter Biden, onde editores insistentes se conectaram a uma série de veículos importantes como ABC News e O Nova-iorquino para fazer seu caso de corrupção, Muboshgu e seus confederados demonstraram repetidamente que nenhuma fonte confiável poderia apoiar as acusações. Ele se lembra de ter sido solicitado repetidamente para adicionar comentários de Joe Biden se gabando de fazer com que o promotor corrupto fosse demitido, como se isso provasse que Joe e Hunter Biden eram corruptos, não entendendo ou se importando em entender que Biden [ajudou a fazer] o promotor demitido por não investigando Burisma.

Passamos por isso vários anos atrás com Hillary Clinton e seus e-mails.

Muboshgu

Passamos por isso vários anos atrás com Hillary Clinton e seus e-mails, e também Benghazi e a Fundação Clinton, diz ele. Eventualmente, ele e outros administradores impuseram uma série de proteções à página de Biden, que ele espera estender após o dia das eleições.

Os partidários são um desafio constante para a descrição neutra da Wikipedia do mundo, mas o pior são os trolls que vêm especificamente para espalhar mentiras, diz Muboshgu. O que me preocupa não é apenas que as pessoas estejam ouvindo notícias da mídia de direita e levando o que é dito lá como evangelho, diz Muboshgu. É que as contas de propósito único estão chegando aqui especificamente com a intenção de espalhar desinformação relacionada à eleição. Não sei se essas contas de propósito único se originam de algum lugar nos EUA, da Agência de Pesquisa da Internet na Rússia ou de alguma outra fazenda de trolls.

A Wikimedia Foundation está monitorando as operações de informações patrocinadas pelo estado na plataforma e investindo em métodos para identificá-las e respondê-las, diz Merkley. Até o momento, não vimos tanto desse tipo de atividade quanto algumas outras plataformas, mas isso não significa que não veremos mais no futuro, já que a Wikipedia está no centro do ecossistema de conhecimento global.

Herói dos bens comuns da informação

O modelo da Wikipedia tem outra vantagem não tão secreta sobre o resto do ecossistema de conhecimento, seja a mídia social ou a mídia de notícias: em vez de milhões de mensagens dispersas e fugazes sobre um determinado tópico, a Wikipedia oferece uma página única e atualizada. Na Wikipedia em inglês, a entrada para, digamos, Donald Trump terá a mesma aparência, independentemente de onde estejamos, quem somos e quais outros sites visitamos.

bandeiras que se parecem com a bandeira dos eua

Ao contrário de inescrutáveis ​​feeds de notícias personalizadas e bate-papos privados, esta coleção compartilhada de informações sobre um tópico permite uma colaboração rápida e concentra as capacidades dos editores, diz Brian Keegan, professor assistente de ciências sociais na Universidade de Colorado Boulder que pesquisou a resposta da Wikipedia às notícias de última hora . Mas também reduz ao mínimo a disseminação de falsidades.

Estamos todos sentados em nossas proverbiais cavernas platônicas entendendo as diferentes sombras.

Brian Keegan

Os feeds de notícias hiperpersonalizados se opõem aos bens comuns da informação, diz Keegan. Moderar o último é mais fácil porque estamos todos olhando para a mesma coisa, enquanto o primeiro é mais difícil porque estamos todos sentados em nossas proverbiais cavernas platônicas dando sentido a diferentes sombras. Em outras palavras, você não pode verificar tudo, e a maioria das mensagens de baixa viralidade circula em suas próprias bolhas de filtro, onde é improvável que sejam contestadas.

O modelo de mídia social baseado no mercado pode ser diametralmente oposto ao da Wikipedia, mas será que a Big Tech ainda poderia emprestar uma página de sua abordagem mais transparente e ascendente para moderar o conteúdo? O Twitter parece pensar assim. Seu novo protótipo para uma ferramenta de feedback da comunidade, chamada Community Notes, permite que qualquer usuário adicione informações contextuais a tweets suspeitos de acordo com padrões rigorosos, como a Wikipedia. Em um e-mail, um porta-voz do Twitter esclareceu que o conceito, que permitiria aos usuários adicionar contexto ou esclarecimento sobre tweets enganosos, está em um estágio muito inicial.

Keegan gosta da idéia de que o Twitter seja copiado da Wikipedia, mas não acredita que uma comunidade como a da Wikipedia possa ser tão eficaz em uma plataforma como o Twitter, dada a escala da rede. E pode ser fácil manipular o sistema. Os custos de participação precisam ser altos o suficiente para dissuadir. . . comportamento inautêntico, diz ele.

A comunidade de voluntários comprometidos da Wikipedia também pode ser difícil de replicar, diz White. Estou perfeitamente disposto a fornecer meu trabalho gratuitamente na Wikipedia porque a Wikimedia Foundation é uma organização sem fins lucrativos com um propósito nobre. Se o Google me pedisse para fazer algo por eles, é melhor eu receber um salário.

Se o Google me pedisse para fazer algo por eles, é melhor eu receber um salário.

GorillaWarfare

Em uma tarde recente, também estava disposto a doar meu trabalho para um propósito nobre, então abri WikiLoop Battlefield , um site criado pela comunidade que permite a qualquer pessoa revisar uma edição recente aleatória da Wikipedia em busca de vandalismo ou desinformação. O sistema depende de bots que examinam novas edições e as pontuam de acordo com o quão falsas ou problemáticas podem ser.

Cliquei em algumas das edições mais recentes da Wikipedia, pequenas alterações em páginas como Impacto ambiental da mineração, Procuradoria Geral do Azerbaijão e He Man’s Power Sword. Conforme cada entrada aparecia, eu cuidadosamente clicava em Não tenho certeza.

Em seguida, o site me apresentou uma edição recente na página de Peter Strzok , o ex-agente do FBI que abriu a investigação da agência na Rússia em 2016 e mais tarde se tornou um alvo de profundas teorias de conspiração do Estado. Um usuário anônimo adicionou uma frase:

Uma revisão abrangente em fevereiro de 2018 das mensagens de Strzok pelo The Wall Street Journal concluiu que os textos críticos de Trump representam uma fração das cerca de 7.000 mensagens, que se estendem por 384 páginas e não mostram evidências de uma conspiração contra Trump Este relatório é obviamente falso, pois o Sr. Strzok claramente tentou minar o eleitorado americano com seus recursos no departamento [.]

Hesitei, imaginando que algum outro editor mais experiente tomaria conta dessa parte flagrante de opinião, que caiu como um veneno em nossa enciclopédia. E então eu rapidamente cliquei no botão vermelho na parte inferior, Deve reverter, e salvei minhas alterações. A frase acabou.

Poucos dias depois, uma mensagem apareceu na minha página de usuário da Wikipedia, de um administrador que eu nunca conheci.

Parabéns, leu. Você foi reconhecido como o campeão semanal do contra-vandalismo do WikiLoop Battlefield.

Por um momento me senti um herói.


Essa história faz parte do nosso Hacking Democracy série, que examina as maneiras pelas quais a tecnologia está corroendo nossas eleições e instituições democráticas - e o que foi feito para corrigi-los. Leia mais aqui.