Buscar

Gigantes da tecnologia pedem uma pausa nos experimentos de IA temendo riscos profundos para a socieda

Prévia do material em texto

1/2
Gigantes da tecnologia pedem uma pausa nos experimentos
de IA, temendo “riscos profundos para a sociedade”
(Yuichiro Chino/Moment/Getty Images)
O bilionário magnata Elon Musk e uma série de especialistas pediram na quarta-feira uma pausa no
desenvolvimento de poderosos sistemas de inteligência artificial (IA) para dar tempo para garantir que
eles sejam seguros.
Uma carta aberta, assinada por mais de 1.000 pessoas até agora, incluindo Musk e o cofundador da
Apple, Steve Wozniak, foi motivada pelo lançamento do GPT-4 da empresa OpenAI, apoiada pela
Microsoft.
A empresa diz que seu modelo mais recente é muito mais poderoso do que a versão anterior, que foi
usada para alimentar o ChatGPT, um bot capaz de gerar trechos de texto a partir do mais breve dos
prompts.
“Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a
sociedade e a humanidade”, disse a carta aberta intitulada “Pause Giant AI Experiments”.
“Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus
efeitos serão positivos e seus riscos serão gerenciáveis”, disse.
Musk foi um investidor inicial na OpenAI, passou anos em seu conselho, e sua empresa de automóveis
Tesla desenvolve sistemas de IA para ajudar a alimentar sua tecnologia de direção autônoma, entre
outras aplicações.
A carta, organizada pelo Future of Life Institute, financiado por Musk, foi assinada por críticos
proeminentes, bem como concorrentes da OpenAI, como o chefe da Stability AI, Emad Mostaque.
O pioneiro canadense de IA Yoshua Bengio, também signatária, em uma coletiva de imprensa virtual em
Montreal, alertou “que a sociedade não está pronta” para essa ferramenta poderosa e seus possíveis
https://www.sciencealert.com/elon-musk
https://www.sciencealert.com/artificial-intelligence
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
https://www.sciencealert.com/new-version-of-chatgpt-will-have-fewer-hallucinations-says-creators
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
2/2
usos indevidos.
"Vamos abrandar. Vamos garantir que desenvolvamos melhores barreiras", disse ele, pedindo uma
discussão internacional completa sobre a IA e suas implicações, "como fizemos para a energia nuclear e
as armas nucleares".
"Confiável e leal"
A carta citada de um blog escrito pelo fundador da OpenAI, Sam Altman, que sugeriu que "em algum
momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas
futuros".
 “Nós concordamos. Esse ponto é agora”, escreveram os autores da carta da caneta.
 “Portanto, pedimos a todos os laboratórios de IA que façam uma pausa imediata por pelo menos 6
meses o treinamento de sistemas de IA mais poderosos que o GPT-4”.
 Eles pediram que os governos interponham e imponham uma moratória se as empresas não
concordarem.
 Os seis meses devem ser usados para desenvolver protocolos de segurança, sistemas de governança
de IA e reorientar pesquisas para garantir que os sistemas de IA sejam mais precisos, seguros,
“confiáveis e leais”.
 A carta não detalha os perigos revelados pelo GPT-4.
 Mas pesquisadores, incluindo Gary Marcus, da Universidade de Nova York, que assinaram a carta, há
muito argumentam que os chatbots são ótimos mentirosos e têm o potencial de ser superespalhantes da
desinformação.
 No entanto, o autor Cory Doctorow comparou a indústria de IA a um esquema de “bomba e despejo”,
argumentando que tanto o potencial quanto a ameaça dos sistemas de IA foram massivamente
exagerados.
? Agence France-Presse (Reto: ? ?
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
https://www.sciencealert.com/chatgpt-could-revolutionize-the-internet-but-its-secrets-have-experts-worried
https://twitter.com/doctorow/status/1633883810616991744?s=20
https://undefined/terms-and-conditions

Mais conteúdos dessa disciplina