Prévia do material em texto
1/4 Entrevista: Por que a IA precisa ser calibrada para o viés Meredith Broussard,Um jornalista de dados da Universidade de Nova York está preocupado com a versão de Hollywood da inteligência artificial – e a prontidão do público para abraçar a IA fictícia que é frequentemente retratada na tela. “As pessoas tendem a dramatizar demais o papel da IA no futuro e implicam que há um futuro glorioso impulsionado pela IA, onde os humanos não terão que conversar uns com os outros, e os computadores vão cuidar de atividades mundanas, e tudo será elegante e perfeito”, diz ela. “Eu acho que isso não é razoável. Eu acho que nossas narrativas em torno da IA não devem se concentrar no que é imaginário, mas no que é real. O que é muito real, ela sustenta, é que a IA está causando muitos tipos de danos aqui e agora. Broussard, uma das poucas mulheres negras que fazem pesquisas em inteligência artificial, gostaria de nos ver abordando os problemas que se mostraram predominantes nos sistemas de IA de hoje, especialmente a questão do viés com base em raça, gênero ou capacidade. Essas preocupações estão na frente e no centro de seu recente livro, “Mais do que uma Glitch: Confrontando a raça, o gênero e o viés de habilidade na tecnologia”. “Quando a tecnologia reforça a desigualdade, ela tende a ser chamada de falha, um blip temporário que é facilmente fixado no código”, escreveu Broussard a Undark em um e-mail. “Mas é muito mais do que isso.” Os preconceitos que permeiam nossa sociedade estão incorporados nos dados em que nossos programas de computador treinam, ela observa e, finalmente, as imperfeições do nosso mundo se refletem nos sistemas de IA que criamos. “Todos os problemas sistêmicos que existem na sociedade https://meredithbroussard.com/ https://undark.org/2020/07/27/ai-medicine-racial-bias-covid-19/ https://mitpress.mit.edu/9780262047654/ 2/4 também existem em sistemas algorítmicos”, escreveu ela. “É mais difícil ver os problemas quando eles estão incorporados em código e dados.” Nossa entrevista foi realizada sobre Zoom e foi editada para maior duração e clareza. Undark: Eu pensei que poderíamos começar com o ChatGPT da OpenAI, e sua última oferta, GPT- 4, que saiu no mês passado. Ao ver as manchetes, e ver suas capacidades aparentemente impressionantes, o que passa pela sua mente? Meredith Broussard: Eu gostaria que nossa conversa começasse não apenas com os benefícios potenciais, mas também com os riscos potenciais das novas tecnologias. Assim, por exemplo, com o ChatGPT, ele é alimentado com dados que são raspados da web aberta. Bem, quando pensamos sobre o que está na web aberta, há muitas coisas realmente ótimas, e há muitas coisas realmente tóxicas. Então, qualquer um que esteja esperando que a tecnologia GPT seja positiva tem uma impressão irracional do que está disponível na internet. UD: Há uma longa lista de coisas com as quais as pessoas estão preocupadas – por exemplo, um aluno vai entregar um ensaio, e o professor vai se perguntar, o aluno escreveu isso sozinho, ou eles recebem ajuda de um sistema de IA? Mas é mais complicado do que isso, certo? MB: Existem todos os tipos de vieses sutis que se manifestam dentro dos sistemas de IA. Por exemplo, acabei de ler um artigo sobre alguns pesquisadores do Hugging Face que tinha uma IA generativa gerada, com base em alguns prompts. E quando eles colocam no prompt para “CEO”, eles receberam principalmente imagens masculinas. Portanto, há esses preconceitos muito humanos que se manifestam dentro dos sistemas tecnológicos. Por muito tempo, o ethos dominante no Vale do Silício tem sido uma espécie de viés que eu chaoco ameaço – a ideia de que as soluções computacionais são superiores, de que os computadores são de alguma forma elevados, mais objetivos, mais neutros, mais imparciais. O que eu diria é que os computadores são realmente bons em tomar decisões matemáticas, e não tão bons em tomar decisões sociais. Então, quando criamos sistemas como ChatGPT, ou DALL-E, ou Stable Diffusion, ou o que quer que seja, você vai ter viés nas saídas desses sistemas, porque você tem viés nas entradas, nos dados que é usado para construir esses sistemas. E não há como fugir disso, porque não vivemos em um mundo perfeito. E os dados representam o mundo como ele é, e nosso passado problemático. UD: Você aponta que alguns dos problemas em nossos algoritmos remontam à década de 1950. Você pode expandir isso? O que estava acontecendo naquela época que ainda se manifesta hoje? MB: As ideias dos anos 50 sobre gênero ainda estão incorporadas nos sistemas tecnológicos de hoje. Você vê isso em algo como a maneira como os formulários são projetados – os tipos de formulários que você preenche o tempo todo – que entram em bancos de dados. Quando me ensinaram como programar bancos de dados na faculdade, no alvorecer da era da Internet, me ensinaram que o gênero deveria ser um valor binário e que era fixo. Sabemos agora que o gênero é um espectro, e a melhor prática agora é tornar o gênero um campo editável, um campo que um usuário https://openai.com/blog/chatgpt https://openai.com/research/gpt-4 https://www.nature.com/articles/d41586-022-04397-7 https://www.businessinsider.com/ai-art-generators-dalle-stable-diffusion-racial-gender-bias-ceo-2023-3 https://huggingface.co/tasks/question-answering https://openai.com/product/dall-e-2 https://stablediffusionweb.com/ 3/4 pode editar por si mesmo, em particular, sem falar com o atendimento ao cliente ou o que quer que seja. Mas não é apenas uma questão de: “Oh, eu vou ter que mudar a forma como este campo é representado neste formulário do Google que eu estou fazendo” – porque nem tudo é uma forma do Google. Quando você se inscreve na escola, por exemplo, você está fazendo uma entrada no sistema de informações do aluno. Os sistemas de informação dos alunos são geralmente esses monólitos que foram criados décadas e décadas atrás, e continuam sendo adicionados. As pessoas não tendem a entrar e revisar seus sistemas corporativos em larga escala. É o mesmo negócio no setor bancário, é a mesma situação no seguro. A outra coisa a considerar quando se trata de gênero é que quando falamos sobre o binário de gênero no contexto da computação, é literalmente sobre zeros e uns – é sobre o espaço da memória no computador. Um binário ocupa uma pequena quantidade de espaço, e uma letra ou uma palavra ocupa uma quantidade maior de espaço. E costumávamos ter que escrever nossos programas para ser muito, muito pequeno, porque a memória era realmente cara – os computadores eram caros. Portanto, havia um imperativo econômico em torno da manutenção do gênero representado como binário, bem como um conceito social dominante de que o gênero era um binário. As coisas estão diferentes agora. Temos muita memória barata. E temos uma compreensão diferente do gênero. Mas nossos novos sistemas também têm que falar com sistemas legados, e os sistemas legados têm essa estética normativa que data dos primeiros dias da computação. Portanto, não é inclusivo para pessoas trans, não-binárias ou não conformes. UD: Em seu livro, você olha para o impacto da IA que está sendo sentido no sistema de justiça e no policiamento. O que você está particularmente preocupado quando a IA entra nesse reino? MB: Estou muito preocupado com as imagens de Hollywood da IA e a maneira como elas dominam a imaginação das pessoas. As pessoas imaginam que o “Relatório da Minoridade” é um futuro real que eles querem fazer acontecer. E esse não é um futuro que eu particularmente quero fazer acontecer. E em uma democracia que podemos falar sobre isso, podemos decidir coletivamente, qual é o futuro que queremos. Eu não co-sinuo sobre um futuro de maior vigilância; de usar ferramentas de IA para policiamento que mais frequentemente identificam erroneamente as pessoas com pele mais escura. As ferramentas de IA geralmente não funcionam, ponto final. Eles geralmente trabalham melhor para pessoas com pele mais clara do que pessoas com pele mais escura. E isso é verdade em toda a linha.Então, quando tomamos essas ferramentas problemáticas e depois as usamos em algo como policiamento, geralmente exacerba os problemas que já temos na América em torno do policiamento dos bairros negros e marrons, a crise carcerária em geral. UD: Você também menciona a ideia de auditoria algorítmica. O que é isso e como pode ser útil? MB: Duas coisas que estou realmente animado são a auditoria algorítmica e as mudanças de política no horizonte. A auditoria algorítmica é o processo de abrir uma “caixa preta” e avaliá-la para problemas. Temos uma explosão de trabalho sobre concepções matemáticas de justiça e métodos para avaliar algoritmos para viés. O primeiro passo é, obviamente, saber que a auditoria algorítmica existe. O https://undark.org/2017/05/17/facial-recognition-technology-biased-understudied/ 4/4 segundo passo é estar disposto a ter conversas difíceis dentro de organizações nas quais as pessoas confrontam o fato de que seus algoritmos provavelmente estão discriminando. Eu acho que é importante notar que todos nós temos preconceito inconsciente. Estamos todos tentando se tornar pessoas melhores a cada dia. Mas todos nós temos preconceito inconsciente – incorporamos nosso preconceito inconsciente nas coisas que fazemos, incluindo nossas tecnologias. E assim, quando você começar a procurar problemas dentro de sistemas algorítmicos, você vai encontrá-los. Podemos incorporar auditorias de viés em processos de negócios comuns. As pessoas já têm processos de teste para software. Quando você está testando seu software para saber se ele funciona, é uma boa ideia também testá-lo para viés. E nós sabemos sobre muitos tipos de preconceito que existem. Provavelmente haverá tipos adicionais de viés que são descobertos no futuro. Também devemos testar para isso. E se algo é tão tendencioso a respeito de ser discriminatório, talvez não deve ser usado. UD: Você usou a frase “caixa preta”. Você pode expandir isso? MB: Se vamos falar sobre justiça, e vamos falar sobre se determinados programas de computador devem ser usados em contextos específicos, precisamos entrar em matemática, e precisamos falar mais sobre o que realmente está acontecendo dentro do sistema de software. Por isso, temos de abrir a caixa preta um pouco. Essa é uma das coisas que os jornalistas de responsabilidade algorítmica fazem. O jornalismo de responsabilidade algorítmica é uma espécie de jornalismo de dados. Foi pioneira por Julia Angwin em sua investigação “Máquina Bias” para a ProPublica. Julia mais tarde passou a fundar o The Markup, que é uma loja de investigação de responsabilidade algorítmica. E o que fazemos como repórteres de responsabilidade algorítmica é, nós interrogamos caixas pretas: descobrimos quais são as entradas, quais são as saídas e o que deve estar acontecendo dentro do sistema. É uma espécie de auditoria algorítmica. Porque quando você conhece as entradas e as saídas, você pode descobrir o que está dentro. Isso se chama de auditoria externa. Mas se você estiver dentro de uma empresa, poderá fazer uma auditoria interna, o que é muito mais fácil porque você tem acesso ao modelo e ao código, bem como aos dados de treinamento e aos dados de teste. Eu também diria a qualquer pessoa que leia isso que trabalhe em corporações, você provavelmente quer fazer auditorias internas, auditorias de responsabilidade algorítmica e auditorias de viés. Porque dessa forma, você evita ter jornalistas investigativos interessados em fazer auditorias externas de seus sistemas. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing https://themarkup.org/