Prévia do material em texto
1/11 A batalha contra a “desinformação” também se aprouve? Eu a vi umn Março de 2021,Um usuário do Twitter perguntou a Martin Kulldorff se todos precisavam ser vacinados contra a Covid-19. Kulldorff, então professor da Harvard Medical School, passou 20 anos pesquisando doenças infecciosas e contribuindo para o desenvolvimento do sistema de vigilância de segurança de vacinas do país. “Não”, ele respondeu. As vacinas foram importantes para algumas pessoas de alto risco, ele escreveu, mas “aqueles com infecção natural prévia não precisam dela. Nem crianças”. Esse conselho colocou Kulldorf fora do mainstream em seu campo, e ele logo enfrentou consequências do Twitter (agora conhecido como X). A rede social rotulou o tweet como enganoso e inseriu um link que oferece aos usuários a oportunidade de “aprender por que as autoridades de saúde recomendam uma vacina para a maioria das pessoas”. O Twitter também limitou a capacidade do post de ser retuitado e curtido, disse Kulldorff em uma entrevista recente. A experiência o assustou. Sua conta já havia sido suspensa uma vez, disse ele, e ele não queria arriscar uma proibição permanente. “Eu tive que me autocensurar”, disse Kulldorff. “Eu não disse tudo o que eu gostaria de dizer.” Ele estava longe de estar sozinho. Ao longo da pandemia, as principais empresas de mídia social removeram milhares de contas e milhões de postagens que continham declarações sobre a Covid-19 sinalizadas como falsas ou enganosas. Essas medidas faziam parte de um esforço sem precedentes da era pandêmica para limitar a disseminação de desinformação à saúde em um momento em que a internet estava inundada de alegações duvidosas de curas milagrosas, redes 5G indutoras de doenças e vacinas que abrigam microchips. A questão que alguns especialistas em saúde pública estão agora perguntando é se esses esforços acabaram tornando os usuários mais saudáveis e seguros. Alguns estudos sugerem que a exposição à desinformação sobre saúde pode ter consequências na vida real, incluindo tornar algumas pessoas menos propensas a querer obter uma vacina contra a Covid-19. E vários especialistas em saúde pública disseram à Undark que é perfeitamente razoável que as empresas de tecnologia removam ou enfatizem alegações de saúde evidentemente falsas. https://undark.org/2023/12/15/interview-self-censorship/ https://undark.org/2020/03/23/covid-19-misinformation/ https://www.nature.com/articles/s41562-021-01056-1 2/11 O bioestatístico e epidemiologista Martin Kulldorff passou 20 anos pesquisando doenças infecciosas e contribuindo para o desenvolvimento do sistema de vigilância de segurança de vacinas dos EUA. Visual: Thér?se Soukar/Wikimedia Commons Uma captura de tela do tweet de março de 2021 de Martin Kulldorff que era, na época, rotulada pelo Twitter como enganosa. A rede social também limitou a capacidade do post de ser retuitado e apreciado, disse Kulldorff em uma entrevista recente. https://commons.wikimedia.org/wiki/File:Martin_Kulldorff.jpg 3/11 Mas há poucas evidências de que essas políticas realmente aumentaram as taxas de vacinação ou evitaram comportamentos prejudiciais. De fato, estudos iniciais que analisam as políticas de desinformação de vacinas descobriram especificamente que tais políticas pouco para reduzir o envolvimento geral dos usuários com o conteúdo anti-vacina. Além disso, alguns pesquisadores de saúde pública estão preocupados que postagens de pessoas como Kulldorff – um especialista com opiniões informadas, mas heterodoxas – foram apanhados em uma rede de arrasto que sufocava o debate legítimo em um momento em que a ciência ainda estava insatisfeita. Esses e outros incidentes de moderação de conteúdo agora fazem parte de um processo da Primeira Emenda lawsuitalegando que várias agências federais coagiram empresas de mídia social a remover conteúdo desfavorecido de suas plataformas. Kulldorf é um dos vários demandantes. Há poucas evidências de que essas políticas realmente impulsionaram as taxas de vacinação ou evitaram comportamentos prejudiciais. Se o governo cruzou a linha da persuasão legal para a coerção ilegal será uma questão para os tribunais decidirem. Seja qual for o resultado desse caso, no entanto, as comunidades de pesquisa de saúde pública e desinformação serão deixadas com questões fundamentais próprias. O principal deles é se, em meio a uma emergência pandêmica, os esforços para controlar a desinformação ultrapassaram as evidências. E se assim for, esses esforços excessivamente zelosos tiveram algum efeito negativo, como silenciar desacordo científico útil, corroer a confiança pública ou impedir a liberdade de expressão? Os pesquisadores também dizem que mais evidências são necessárias para determinar se as tentativas de conter a desinformação on-line em saúde têm o efeito desejado no comportamento público, assumindo que uma definição consensual para “desinformação” pode até ser encontrada. Até o momento, dizem eles, há pouco acordo sobre a melhor maneira de estudar essas questões, e quais evidências foram compiladas até agora pintam um quadro bastante misto. “Ainda é um campo muito jovem”, disse Claire Wardle, especialista em desinformação da Escola de Saúde Pública da Universidade Brown. Em retrospecto, “nem todo mundo acertava”, disse ela. “Mas você não pode negar que muitas, muitas pessoas passaram muitas, muitas horas tentando desesperadamente descobrir o que era a coisa certa a fazer.” D (ebate sobreComo enfrentar a desinformação na mídia chega a décadas atrás, mas durante a maior parte da era da internet, a moderação de conteúdo on-line tevePouco para fazercom a saúde pública. Quando as empresas de mídia social derrubaram postagens, elas se concentraram principalmente na remoção de material excessivamente violento ou perturbador. Isso começou a mudar após a eleição dos EUA em 2016, quando uma organização ligada ao governo russousadoMídias sociais para se passar por cidadãos americanos. Líderes do Facebook, Google e Twitter foram chamados perante um comitê do Congresso e questionados sobre o papel de suas empresas em permitir a interferência eleitoral estrangeira. As principais plataformas de mídia social adotaram políticas mais agressivas para moderar o conteúdo relacionado às eleições. Em 2019, as autoridades de saúde pública também levantaram preocupações sobre informações que circulam on-line. Depois de uma série de surtos de sarampo, os Centros de Controle e Prevenção de https://www.science.org/doi/10.1126/sciadv.adh2132 https://www.scotusblog.com/case-files/cases/murthy-v-missouri-2/ https://undark.org/2018/06/06/aids-denialism-quackery-facebook-youtube/ https://www.fbi.gov/wanted/cyber/russian-interference-in-2016-u-s-elections 4/11 Doenças culparam a desinformação por baixas taxas de vacinação em comunidades vulneráveis. As empresas de tecnologia começaram a agir: o Facebook reduziu a visibilidade das páginas anti-vacinas, entre outras mudanças. O mecanismo de busca do Twitter começou a direcionar consultas de vacinas para organizações de saúde pública. Em 2018, o então COO do Facebook, Sheryl Sandberg, e o então CEO do Twitter, Jack Dorsey, testemunham durante uma audiência do Comitê de Inteligência do Senado sobre o uso de plataformas de mídia social por operações de influência estrangeira. Visual: Drew Angerer/Getty Images Em sua face, pode parecer evidente que a exposição a um dilúvio de postagens de mídia social insistindo, por exemplo, que as vacinas contêm microchips sub-reptitos podem muito bem fazer com que algumas pessoas hesitem antes de receber uma chance. Pesquisadores que falaram com Undark apontaram para um par de ensaios clínicos randomizados, ou ECRs, que sugerem o potencial de desinformação para influenciar o comportamento do mundo real. Em um estudo publicado em 2010, pesquisadores alemães designaram aleatoriamente indivíduos para visitar um site crítico para a vacina, um site de controle ou ambos. Gastar apenas 5 a 10 minutos em um site crítico de vacinas diminuiu as intenções de curto prazo dos participantesdo estudo de vacinar. Mais recentemente, em 2020, uma equipe de pesquisadores com sede em Londres designou aleatoriamente mais de 8.000 participantes do estudo para visualizar informações falsas ou conteúdo factual sobre as vacinas contra a Covid-19. O grupo que viu a desinformação experimentou uma queda de 6 pontos por cento no número de participantes dizendo que “definitivamente” aceitaria uma vacina. No entanto, nem todos os estudos mostram uma conexão tão clara. Em junho e julho de 2021, uma equipe de pesquisadores irlandeses descobriu que a exposição ao conteúdo anti-vacina teve pouco efeito sobre a intenção dos participantes do estudo de obter uma vacina contra a Covid-19. Talvez contra-intuitivamente, os grupos de estudo expostos à desinformação mostraram um ligeiro aumento em https://www.cdc.gov/mmwr/volumes/68/wr/mm6817e1.htm https://journals.sagepub.com/doi/10.1177/1359105309353647 https://pubmed.ncbi.nlm.nih.gov/33547453/ https://undark.org/2023/10/26/opinion-misinformation-moral-panic/ https://cognitiveresearchjournal.springeropen.com/articles/10.1186/s41235-022-00437-y 5/11 sua intenção de vacinar. Os autores concluíram que a desinformação provavelmente afeta o comportamento, mas sua influência “não é tão simples como muitas vezes se supõe”. Os ECRs são importantes, disse Wardle. O desenho do estudo permite que os pesquisadores isolem uma única variável, como a exposição ao conteúdo anti-vacina, e depois analisem seu efeito. Mas, ela acrescentou, esses experimentos apenas pintam um quadro parcial. Os autores de um estudo de 2021 concluíram que a desinformação provavelmente afeta o comportamento, mas sua influência “não é tão simples quanto se supõe com frequência”. Por exemplo, nenhum dos três estudos de vacina pediu aos participantes que compartilhassem seus registros de vacinação. Sem esses dados, não está claro se as mudanças nas respostas da pesquisa previram com precisão as mudanças nas taxas de vacinação. Além disso, os RCTs podem não capturar totalmente as inúmeras maneiras pelas quais a desinformação on-line se espalha, disse Wardle. Uma pessoa pode descartar uma informação errada online. Mas se eles encontrá-lo novamente – digamos em uma reunião de família – eles podem estar preparados para aceitá-lo como verdade. “Eu acho que é importante que tenhamos ECRs, mas também é importante que tenhamos uma série de outras metodologias” para entender a relação entre desinformação e comportamento humano, disse Wardle. Mesmo que declarações falsas causem danos no mundo real, não está claro como responder melhor. Wardle e seus co-autores revisaram recentemente 50 estudos que analisaram possíveis maneiras de mitigar a desinformação da Covid-19. Muitos estudos analisaram uma estratégia chamada prompts de precisão, que pedem aos usuários que considerem a precisão de uma história antes de decidir se devem ou não compartilhá-la. Outros examinaram os efeitos da inoculação: lições curtas, muitas vezes apresentadas em formato de vídeo, que ensinam às pessoas as táticas de informações enganosas antes de encontrá-las no mundo real. A equipe de Wardle descobriu que tais abordagens só têm um efeito modesto, e não está claro quanto tempo dura o efeito. “Há coisas diferentes que deveríamos estar fazendo”, disse ela, “mas não há a bala de prata”. W (hen o Covid-19As autoridades de saúde pública tiveram poucas estratégias apoiadas por evidências para responder a informações falsas sobre a pandemia – muito menos entender seu impacto potencial. Mas, à medida que a pandemia avançava, mais e mais formuladores de políticas e defensores começaram a pedir ações mais fortes contra a desinformação online. Muitas vezes, eles defendem estratégias abrangentes que, dizem alguns pesquisadores agora, podem ter tido efeito limitado. Essas preocupações com a desinformação atingiram um ponto alto no verão de 2021, em meio ao lançamento da vacina Covid-19. Em julho, EUA. O cirurgião-geral Vivek Murthy emitiu um aviso sobre desinformação sobre saúde, descrevendo-a como “uma séria ameaça à saúde pública” que precisava ser abordada com “um esforço de toda a sociedade”. Os casos de Covid-19 estavam aumentando e, cerca de 7 meses após o lançamento da vacina, cerca de um terço dos adultos dos EUA permaneceu https://www.healthaffairs.org/doi/10.1377/hlthaff.2023.00717 https://undark.org/2021/05/03/psychology-misinformation-public-square/ https://www.hhs.gov/sites/default/files/surgeon-general-misinformation-advisory.pdf https://www.npr.org/sections/health-shots/2021/07/15/1016013826/the-u-s-surgeon-general-is-calling-covid-19-misinformation-an-urgent-threat 6/11 não vacinado. As pesquisas indicaram que muitos deles tinham falsas crenças, como a noção de que as vacinas tinham sido mostradas para causar Covid-19, ou mesmo infertilidade. Juntamente com Murthy, outros funcionários da Casa Branca começaram a levantar o alarme sobre 12 contas que, segundo eles, estavam dirigindo a maior parte das informações falsas on-line. "Qualquer um que esteja ouvindo está sendo ferido por isso", disse o presidente Joe Biden a repórteres. “Isso está matando pessoas”. Biden parecia estar se referindo a um relatório chamado The Disinformation Dozen, produzido pela organização sem fins lucrativos Center for Countering Digital Hate. Em um resumo do relatório, o CCDH afirmou que diminuir ou eliminar a visibilidade dos piores infratores “é a maneira mais eficaz de impedir a proliferação de desinformação perigosa”. O relatório foi amplamente citado por organizações de notícias, incluindo CNN, CBS News, The Washington Post e The Guardian. Em julho de 2021, EUA O cirurgião-geral Vivek Murthy emitiu um aviso sobre desinformação sobre saúde, descrevendo-a como “uma séria ameaça à saúde pública” que precisava ser abordada com “um esforço de toda a sociedade”. Na época, cerca de um terço dos adultos dos EUA não foram vacinados contra a Covid-19. Visual: Saul Loeb/AFP via Getty Images O Facebook, agora de propriedade da Meta, eventualmente tomou medidas contra as 12 contas. Mas a empresa também recuou contra o relatório, dizendo que “se concentrar em um grupo tão pequeno de pessoas distrai os complexos desafios que todos enfrentamos ao abordar a desinformação sobre as vacinas contra a Covid-19”. Pelo menos uma análise sugere que o Facebook pode ter razão. Um estudo de setembro publicado na Science Advances descobriu que, de novembro de 2020 a fevereiro de 2022, as políticas de https://www.kff.org/coronavirus-covid-19/perspective/persistent-vaccine-myths/ https://counterhate.com/research/the-disinformation-dozen/ https://www.cnn.com/2021/07/16/tech/misinformation-covid-facebook-twitter-white-house/index.html https://www.cbsnews.com/news/vaccine-disinformation-social-media-center-for-countering-digital-hate-report/ https://www.washingtonpost.com/politics/2021/07/19/biden-facebook-misinformation/ https://www.theguardian.com/world/2021/jul/17/covid-misinformation-conspiracy-theories-ccdh-report https://about.fb.com/news/2021/08/taking-action-against-vaccine-misinformation-superspreaders/ https://www.science.org/doi/10.1126/sciadv.adh2132 7/11 desinformação sobre vacinas do Facebook “não induziram uma redução sustentada no envolvimento com o conteúdo anti-vacina”. (Alguns dos mesmos autores estudaram a política de desinformação sobre vacinas do Twitter também. Esse artigo, que ainda não foi revisado por pares, descobriu que a política do Twitter pode ter sido igualmente ineficaz.) O Facebook realmente tentou, disse o principal autor, David Broniatowski, diretor associado do Instituto de Dados, Democracia e Política da Universidade George Washington. A empresa “claramente dire pontau e removeu muito conteúdo anti-vacina”, disse ele. Mas as pessoas simplesmente mudaram sua atenção para o que restou. “Apenas desligar páginas, deplatformando grupos específicos, não é particularmente eficaz, desde que haja todo um ecossistema lá fora apoiando esse tipo de conteúdo”, disse Broniatowski. Receba nossa Newsletter Sent WeeklyTradução Este campoé para fins de validação e deve ser mantido inalterado. Parte do problema, disse Broniatowski, é que o desejo do Facebook de remover conteúdo anti-vacina estava em desacordo com o design fundamental da plataforma, que visa ajudar os usuários a construir a comunidade e encontrar informações. O resultado final, disse ele, é um pouco como jogar Whac-a-Mole com conteúdo anti-vacina, apenas neste caso, “a mesma empresa que está tentando golpear as toupeiras também é construir os túneis pelos quais as toupeiras estão rastejando”. Se uma grande empresa de mídia social proibir um indivíduo ou um grupo, pode haver consequências não intencionais, disse Ed Pertwee, pesquisador do Projeto de Confiança de Vacinas da Escola de Higiene e Medicina Tropical da London School. Por um lado, a pesquisa sugere que os usuários cujas contas são removidas muitas vezes migram para plataformas de mídia social menos regulamentadas, como Gab ou Rumble. Essa transição para uma plataforma alternativa geralmente limitará o alcance de um usuário, disse Pertwee. Mas se o usuário migrar para um site menos regulamentado, eles podem entrar em contato com pessoas que compartilham sua ideologia ou têm visões ainda mais extremas. A própria pesquisa de Pertwee também descobriu que o deplataforma pode dar origem a narrativas de vitimização que levam as pessoas a se unirem em torno de um medo compartilhado de perseguição nas mãos de grandes empresas de tecnologia. “A mesma empresa que está tentando golpear as toupeiras também está construindo os túneis pelos quais as toupeiras estão rastejando.” Pertwee também apontou que, embora o ambiente de informação seja uma influência importante nas atitudes das pessoas em relação à vacinação, não é a única influência – e pode não ser a mais importante. Vários estudos ligaram a hesitação vacinal à desconfiança de políticos e especialistas médicos, disse Pertwee. Por esta razão, ele e seus colegas sugerem que a hesitação na vacina deve ser vista “principalmente como uma questão de confiança, em vez de um problema informativo”. Isso não https://osf.io/preprints/socarxiv/cxg6y/ https://journals.sagepub.com/doi/10.1177/0267323120922066 https://journals.sagepub.com/doi/10.1177/0267323120922066 https://journals.sagepub.com/doi/10.1177/14614448211024546 8/11 quer dizer que a desinformação não importa, eles escreveram em uma perspectiva da Nature Medicine de 2022, mas as autoridades de saúde pública devem se concentrar em primeiro lugar na construção de confiança. Não está claro por que o Centro de Combate ao Hado Digital colocou tanta ênfase na proibição dos usuários como uma solução para a hesitação da vacina – ou por que o governo Biden escolheu amplificar o relatório Desinformação Dozen. O CCDH inicialmente concordou em fazer uma entrevista com Undark no final de setembro, mas depois cancelou repetidamente e, finalmente, se recusou a comentar. Colm Coakley, porta-voz da CCDH, não respondeu a uma breve lista de perguntas da Undark sobre as evidências por trás das recomendações do grupo. As Social media (')As empresas e as autoridades de saúde pública trabalharam para moderar o conteúdo durante a pandemia, encontraram outra questão: o que realmente se qualifica como desinformação? Em entrevistas com Undark, vários pesquisadores fizeram uma distinção entre postagens que são comprovadamente falsas ou infundadas – como o boato de que as vacinas Covid-19 contêm microchips – e postagens que apenas oferecem uma opinião que fica fora do mainstream científico. Alguns pesquisadores dizem que remover ou suprimir este último pode ter sufocado o debate em um momento em que a ciência da Covid-19 era nova e instável. Além disso, políticas que limitavam a disseminação de ambos os tipos de postagens criaram percepções de que críticos proeminentes das autoridades de saúde pública – incluindo Kulldorff – estavam sendo silenciadas por sua oposição aos mandatos de vacinas e outras políticas contenciosas. Kulldorff é talvez mais conhecido como co-autor da Declaração de Great Barrington, um documento que encorajou os governos a suspender as restrições de bloqueio sobre jovens saudáveis, proporcionando uma melhor proteção para aqueles com maior risco. Logo depois de ser publicada, a declaração tornou- se um pára-raios, com algumas autoridades de saúde pública characterizingcaracterizando-o como um chamado para permitir que o vírus simplesmente percorresse seu curso através da população, independentemente do pedágio, como forma de estabelecer rapidamente a imunidade de rebanho. O site da declaração parece ter sido classificado nos resultados de busca do Google logo após sua publicação, disse Kulldorff em depoimento juramentado, e a página do Facebook da declaração foi brevemente retirada. Suporte Undark Magazine Undark é uma revista editorialmente independente, sem fins lucrativos, cobrindo a complicada e muitas vezes fragmentada interseção da ciência e da sociedade. Se você gostaria de ajudar a apoiar o nosso jornalismo, por favor, considere fazer uma doação. Todos os lucros vão diretamente para o fundo editorial da Undark. Dê agora https://www.nature.com/articles/s41591-022-01728-z https://undark.org/2020/05/24/in-online-covid-19-videos-a-mix-of-science-and-conjecture/ https://gbdeclaration.org/ https://www.statnews.com/2022/03/25/how-we-got-herd-immunity-wrong/ https://giving.mit.edu/form/?fundId=3932005 9/11 Mais tarde, em abril de 2021, o YouTube removeu um vídeo de uma mesa redonda política, hospedada pelo governador da Flórida. Ron DeSantis, no qual Kulldorff e outros cientistas afirmaram que as crianças não precisavam mascarar na escola durante a pandemia. Nenhum desses conteúdos deveria ter sido removido, disse Jeffrey Klausner, especialista em saúde pública da Universidade do Sul da Califórnia. Klausner passou mais de uma década como funcionário de saúde pública em São Francisco nos anos 1990 e 2000. Na época, ele e seus colegas organizaram reuniões comunitárias onde visões controversas, incluindo o negacionismo da AIDS, foram ao ar. “Permitimos que essas conversas ocorriam e sempre estávamos interessados em apoiar discussões abertas”, disse ele. As autoridades de saúde pública ainda devem depender da persuasão, não da censura, disse Klausner, mesmo na era da internet, quando as postagens podem rapidamente se tornar virais. “Para mim, a resposta à liberdade de expressão não é menos discurso”, disse Klausner. “É mais um discurso.” De fato, alguns críticos veem o impulso de fechar contas como parte de um desejo mais amplo entre os líderes de saúde pública de evitar debate sobre tópicos contenciosos, desde mandatos de máscaras até as origens do vírus SARS-CoV-2. Sandro Galea, reitor da Escola de Saúde Pública da Universidade de Boston, escreveu extensivamente sobre o valor da liberdade de expressão e debate dentro da comunidade de saúde pública. Em entrevista à Undark, ele disse que é razoável que as empresas de mídia social moderem o discurso patentemente falso que possa causar danos, como a noção de que as vacinas contêm microchips ou a negação de atrocidades históricas. “Para mim, a resposta à liberdade de expressão não é menos discurso. É mais um discurso.” É o pensamento heterodoxo que Galea se preocupa em se perder à medida que a saúde pública passa pelo que ele caracteriza como um momento iliberal. Em seu novo livro, “Dentro da razão: uma saúde pública liberal por um tempo iliberal”, Galea argumenta que, durante a pandemia, a saúde pública perdeu de vista certos princípios fundamentais, incluindo a liberdade de expressão e o debate aberto. “Na medida em que Kulldorff estava tentando gerar uma discussão, acho que é uma pena não permitir a discussão”, disse Galea. Quaisquer ganhos de curto prazo da remoção ou desprezão de tais postagens podem ser superados, disse ele, pelas consequências a longo prazo da saúde pública sendo vistas como indispostas a permitir que o debate e a vontade de confiar nas pessoas entendam as complexidades inerentes à navegação em um novo patógeno. T (T)Questõesde heseAgora se espalhou para o caso legal envolvendo Kulldorff e outros. Por lei, as empresas de mídia social são livres para decidir que tipo de conteúdo suas plataformas hospedarão. O processo, recentemente renomeado Murthy v. Missouri, depende de se o governo federal censurou o discurso protegido coagindo as empresas de mídia social a moderar certos conteúdos, particularmente postagens relacionadas a eleições e as vacinas Covid-19. "É um caso extremamente importante", disse Lyrissa Lidsky, professora de direito constitucional da Faculdade de Direito Levin da Universidade da Flórida. “Cada vez mais, o governo descobriu que pode ir para as empresas de mídia social e exercer pressão e tirar as coisas”, disse ela. Os liberais podem estar https://www.nbcnews.com/news/us-news/youtube-pulls-florida-governor-s-video-says-his-panel-spread-n1263635 https://undark.org/2021/03/17/lab-leak-science-lost-in-politics/ https://undark.org/2023/12/22/book-excerpt-within-reason/ 10/11 inclinados a apoiar as intervenções do governo Biden, observou ela, mas podem se sentir de forma diferente quando alguém está no comando. “Se Trump vencer a próxima eleição presidencial, e seu povo estiver no cargo”, disse ela, “se sente confortável com eles decidindo o que é desinformação?” Em dezembro, a Academia Americana de Pediatria, a Associação Médica Americana e três outros grupos médicos pesaram com um resumo legal. O documento argumenta que o governo tem um “interesse convincente” na luta contra a desinformação sobre vacinas porque “estudos mostraram que a desinformação sobre esse tópico pode diminuir a absorção da vacina, o que, por sua vez, diminui a capacidade das vacinas de controlar a disseminação da doença e reduz o número de vidas salvas”. Tudo isso está se desenrolando dentro de um contexto político mais amplo em que os republicanos estão cada vez mais indo na ofensiva contra pesquisadores de desinformação por seu papel no que os republicanos do Congresso caracterizam como o “regime de censura” de Biden. Janeiro viu a formação do Subcomitê Selecionado Judiciário da Câmara sobre a Armaização do Governo Federal, liderado pelo deputado republicano de Ohio. Jim Jordan (em inglês). Entre outras coisas, o comitê pretende investigar a suposta cooperação entre o governo e as empresas de mídia social para suprimir as vozes de direita. O comitê solicitou uma série de documentos de pesquisadores que estudam desinformação. A investigação do Congresso e o processo tiveram um efeito inibidor na pesquisa de desinformação, de acordo com alguns especialistas. “Cada vez mais, o governo descobriu que pode ir para as empresas de mídia social e exercer pressão e derrubar as coisas.” As pessoas “se tornaram um pouco cautelosas e cuidadosas”, disse K. Viswanath, professor de comunicação em saúde em Harvard. Em sua opinião, as alegações de censura foram exageradas. Se um cientista quer apresentar uma opinião alternativa, disse ele, há uma abundância de fóruns disponíveis, incluindo revistas científicas e blogs administrados por organizações científicas. Ao exibir essas visões científicas divergentes nas mídias sociais, Viswanath continuou, pode contribuir para a confusão pública e até causar danos – um resultado que os moderadores de conteúdo podem razoavelmente desejar evitar. Recentemente, Wardle tem refletido sobre como o campo da pesquisa de desinformação respondeu à Covid-19. Em sua opinião, o impulso para gerenciar o discurso on-line foi longe demais. Como Galea, ela acha que alguma moderação de conteúdo é importante, mas teme que, ao não limitar esses esforços a discursos obviamente falsos, o campo se tornou vulnerável a desafios legais dos estados, o que teve um efeito assustador em pesquisas futuras. “Eu acho que o fracasso de realmente se comunicar efetivamente sobre as complexidades de uma questão é o que nos levou a essa luta em torno da censura”, disse ela. Particularmente no caso da pandemia de Covid-19, onde grande parte da ciência estava realmente incerta, as plataformas deveriam ter deixado as pessoas dizerem o que queriam, disse ela. “Mas vamos ser mais inteligentes em dizer por que pensamos da maneira que fazemos”, acrescentou. “Em vez de dizer essas pessoas, elas são loucas, as entendo e diga: ‘Olha, nós dois fomos para a faculdade de medicina. Estou lendo este diário e dizendo isso, você está lendo o mesmo diário e dizendo isso: por quê? https://www.supremecourt.gov/DocketPDF/23/23-411/294091/20231222102540387_FINAL%20Murthy%20Amicus%20for%20filing.pdf https://www.propublica.org/article/jim-jordan-disinformation-subpoena-universities https://www.washingtonpost.com/technology/2023/09/23/online-misinformation-jim-jordan/ 11/11