Buscar

Tanto os seres humanos quanto a IA têm alucinação mas não da mesma maneira

Prévia do material em texto

1/3
Tanto os seres humanos quanto a IA têm alucinação – mas
não da mesma maneira
O lançamento de modelos de linguagem de grande porte sempre capazes (LLMs), como o GPT-3.5,
despertou muito interesse nos últimos seis meses. No entanto, a confiança nesses modelos diminuiu à
medida que os usuários descobriram que podem cometer erros – e que, como nós, eles não são
perfeitos.
Diz-se que um LLM que produz informações incorretas é “alucinante”, e agora há um esforço crescente
de pesquisa para minimizar esse efeito. Mas à medida que lidamos com essa tarefa, vale a pena refletir
sobre nossa própria capacidade de viés e alucinações – e como isso afeta a precisão dos LLMs que
criamos.
Ao entender a ligação entre o potencial alucinatório da IA e o nosso, podemos começar a criar sistemas
de IA mais inteligentes que ajudarão a reduzir o erro humano.
Como as pessoas alucinantes
Não é segredo que as pessoas compõem a informação. Algumas vezes fazemos isso intencionalmente,
e outras vezes sem intenção. Este último é resultado de vieses cognitivos, ou “heuristas”: atalhos
mentais que desenvolvemos através de experiências passadas.
Esses atalhos muitas vezes nascem por necessidade. A qualquer momento, só podemos processar uma
quantidade limitada da informação que inunda nossos sentidos e apenas nos lembrar de uma fração de
todas as informações a que já fomos expostos.
https://help.openai.com/en/articles/6783457-what-is-chatgpt
https://spectrum.ieee.org/ai-hallucination
2/3
Como tal, nossos cérebros devem usar associações aprendidas para preencher as lacunas e responder
rapidamente a qualquer pergunta ou dilema que esteja diante de nós. Em outras palavras, nossos
cérebros adivinham qual a resposta correta pode ser baseada em conhecimento limitado. Isso é
chamado de “confabulação” e é um exemplo de preconceito humano.
Nossos preconceitos podem resultar em mau julgamento. Pegue o viés de automação, que é a nossa
tendência a favorecer informações geradas por sistemas automatizados (como o ChatGPT) sobre
informações de fontes não automatizadas. Esse viés pode nos levar a erros de erro e até mesmo agir
sobre informações falsas.
Outra heurística relevante é o efeito halo, no qual nossa impressão inicial de algo afeta nossas
interações subsequentes com ela. E o viés de fluência, que descreve como favorecemos a informação
apresentada de maneira fácil de ler.
A linha inferior é o pensamento humano é muitas vezes colorido por seus próprios vieses cognitivos e
distorções, e essas tendências “alecinatórias” ocorrem em grande parte fora de nossa consciência.
Como a IA alucina
Em um contexto LLM, a alucinação é diferente. Um LLM não está tentando conservar recursos mentais
limitados para fazer sentido do mundo de forma eficiente. “Hallucinação” neste contexto apenas
descreve uma tentativa fracassada de prever uma resposta adequada a uma entrada.
No entanto, ainda há alguma semelhança entre a forma como os seres humanos e os LLMs alucinam,
uma vez que os LLMs também fazem isso para “preencher as lacunas”.
Os LLMs geram uma resposta prevendo qual palavra é mais provável que apareça em seguida em uma
sequência, com base no que veio antes, e em associações que o sistema aprendeu através do
treinamento.
Como os humanos, os LLMs tentam prever a resposta mais provável. Ao contrário dos humanos, eles
fazem isso sem entender o que estão dizendo. É assim que eles podem acabar produzindo bobagens.
Quanto ao porquê LLMs alucinações, há uma série de fatores. Um dos principais está sendo treinado em
dados que são falhos ou insuficientes. Outros fatores incluem como o sistema é programado para
aprender com esses dados e como essa programação é reforçada através de treinamentos adicionais
em humanos.
Fazendo melhor juntos
Então, se tanto os seres humanos quanto os LLMs são suscetíveis a alucinar (embora por razões
diferentes), o que é mais fácil de corrigir?
Corrigir os dados de treinamento e os processos subjacentes aos LLMs pode parecer mais fácil do que
nos consertarmos. Mas isso não leva a considerar os fatores humanos que influenciam os sistemas de
IA (e é um exemplo de outro viés humano conhecido como erro fundamental de atribuição).
https://dataethics.eu/trust-in-ai-can-be-tool-little-and-too-much
https://dataethics.eu/trust-in-ai-can-be-tool-little-and-too-much
https://www.verywellmind.com/cognitive-biases-distort-thinking-2794763
https://www.researchgate.net/publication/23230162_Fluency_Heuristic_A_Model_of_How_the_Mind_Exploits_a_By-Product_of_Information_Retrieval
https://online.hbs.edu/blog/post/the-fundamental-attribution-error?sf55808584=1
3/3
A realidade são nossas falhas e as falhas de nossas tecnologias estão inextricavelmente interligadas,
então consertar um ajudará a consertar o outro. Aqui estão algumas maneiras de fazer isso.
Gestão de dados responsável. Os preconceitos em IA geralmente resultam de dados de
treinamento tendenciosos ou limitados. As maneiras de abordar isso incluem garantir que os
dados de treinamento sejam diversos e representativos, construindo algoritmos com consciência
de viés e a implantação de técnicas como balanceamento de dados para remover padrões
distorcidos ou discriminatórios.
Transparência e IA explicável. Apesar das ações acima, no entanto, os preconceitos na IA
podem permanecer e podem ser difíceis de detectar. Ao estudar como os vieses podem entrar em
um sistema e se propagar dentro dele, podemos explicar melhor a presença de viés nas saídas.
Esta é a base da “IA explicável”, que visa tornar os processos de tomada de decisão dos sistemas
de IA mais transparentes.
Colocar os interesses do público na frente e no centro. Reconhecer, gerenciar e aprender com
preconceitos em uma IA requer responsabilidade humana e ter valores humanos integrados em
sistemas de IA. Alcançar isso significa garantir que as partes interessadas sejam representativas
de pessoas de diversas origens, culturas e perspectivas.
Ao trabalharmos juntos dessa maneira, é possível construir sistemas de IA mais inteligentes que possam
ajudar a manter todas as nossas alucinações sob controle.
Por exemplo, a IA está sendo usada na área da saúde para analisar as decisões humanas. Esses
sistemas de aprendizado de máquina detectam inconsistências em dados humanos e fornecem
instruções que os levam à atenção do clínico. Como tal, as decisões de diagnóstico podem ser
melhoradas, mantendo a responsabilidade humana.
Em um contexto de mídia social, a IA está sendo usada para ajudar a treinar moderadores humanos ao
tentar identificar abusos, como por meio do projeto Troll Patrol destinado a combater a violência on-line
contra as mulheres.
Em outro exemplo, a combinação de imagens de IA e de satélite pode ajudar os pesquisadores a
analisar as diferenças na iluminação noturna entre as regiões e usar isso como um proxy para a pobreza
relativa de uma área (em que mais iluminação está correlacionada com menos pobreza).
É importante ressaltar que, embora façamos o trabalho essencial de melhorar a precisão dos LLMs, não
devemos ignorar como a falibilidade atual mantém um espelho para o nosso.
Este artigo é republicado de The Conversation sob uma licença Creative Commons. Leia o artigo
original.
https://link.springer.com/chapter/10.1007/978-3-030-98015-3_33
https://link.springer.com/chapter/10.1007/978-3-030-98015-3_33
https://decoders.amnesty.org/projects/troll-patrol/findings
https://www.science.org/doi/10.1126/science.aaf7894
https://www.science.org/doi/10.1126/science.aaf7894
https://theconversation.com/
https://theconversation.com/both-humans-and-ai-hallucinate-but-not-in-the-same-way-205754

Mais conteúdos dessa disciplina