Buscar

Olhos robóticos não têm força da percepção humana

Prévia do material em texto

1/3
Olhos robóticos não têm força da percepção humana
Forçar robôs a ver através dos olhos de um ser humano é limitante. Olhos robóticos inteligentes que
podem pensar por si mesmos podem ser a resposta.
Em seu épico filme de 1968, 2001: Uma Odisseia no Espaço, Stanley Kubrick incorporou cenas
inesquecíveis em que o computador senciente, HAL, observa Dave, o cientista a bordo da espaçonave
Discovery One. Este retrato de uma forma como uma máquina percebe o mundo é, em última análise,
definido por nossa própria percepção dele.
Na prática, construímos e ensinamos a IA a entender o mundo como se estivesse olhando através de
nossos próprios olhos. Como resultado, a maioria dos sistemas de visão artificial depende de câmeras
que produzem imagens destinadas aos seres humanos, que formam a base para o treinamento de uma
rede neural. No entanto, forçar os olhos robóticos a ver através de nossa própria interpretação cognitiva
pode realmente prejudicar seu verdadeiro potencial.
Quais são as alternativas que os robôs poderiam usar? É difícil pensar sobre a percepção do mundo
além da nossa própria experiência. A capacidade dos organismos biológicos de compreender a
realidade foi moldada pelas necessidades de sobrevivência e moldada pela evolução ao longo de
centenas de milhões de anos. No entanto, a IA não está confinada a essa construção.
Uma pesquisa publicada na revista Advanced Intelligent Systems tenta abordar esta questão, propondo
uma nova abordagem à visão artificial. O objetivo é implementar um aparelho de percepção visual
inteligente que imita as células biológicas da retina e seus neurônios de conexão em um nível
https://onlinelibrary.wiley.com/doi/full/10.1002/aisy.202200066
2/3
fundamental. Além disso, incorpora uma pequena rede neural artificial baseada em hardware destinada
a realizar tarefas rudimentares semelhantes às funções elementares do córtex visual.
Quão “inteligentes” esses olhos robóticos precisam ser?
Os olhos robóticos com percepção visual artificial são fundamentais para algumas tecnologias
importantes, como sistemas de segurança automotiva, fabricação industrial e até mesmo equipamentos
médicos avançados. Essas plataformas geralmente são caras, pois são baseadas em uma câmera para
capturar imagens que são processadas por um complexo algoritmo de IA que está sendo executado
sobre uma CPU forte. Além disso, a IA deve passar por um extenso treinamento offline com bancos de
dados grandes e detalhados.
Mas todas as aplicações de máquinas inteligentes exigem hardware de ponta com cognição de alto nível
em seu processo de aprendizagem?
A compreensão abstrata pode ser suficiente em algumas aplicações, onde a IA só precisa fazer
suposições básicas ou abrangentes. Por exemplo, identificar uma bola ou objeto redondo pode ser
suficiente em certas situações, sem exigir que o sistema diferencie entre uma bola de basquete e uma
bola de beisebol. Essa IA não precisa depender de uma CPU e seria consideravelmente mais barata.
Além disso, pode ser operado mesmo sem ter que depender de uma câmera. Por exemplo, a visão
abstrata pode ser usada para simplesmente identificar bolas desfeitas e desproporcionais.
A resposta à pergunta anterior afeta diretamente o custo e a complexidade dos sistemas de IA. No
primeiro caso, uma grande rede neural artificial é necessária, enquanto a segunda pode ser abordada
fabricando blocos de construção pequenos e baratos que funcionam em paralelo. Referindo-se ao
exemplo anterior, tanto as bolas de basquete quanto as bolas de beisebol podem ter características
únicas e diferenciadas.
Uma rede de alto nível de compreensão deve levar em conta essas nuances e aprender a classificá-las
corretamente. A quantidade de informações alimentadas na IA pode ser bastante grande. Como
resultado, o tamanho da rede e as complexidades podem crescer rapidamente e o gasto energético
associado aumenta ainda mais rápido.
Por outro lado, uma IA com compreensão abstrata pode ser pequena e simples, projetada para apenas
identificar se a imagem capturada contém ou não uma forma com uma única simetria. Um conjunto de
tais entidades pode dizer quando um objeto em forma de bola está sendo apresentado identificando
múltiplos eixos de simetria dentro da imagem. Assim, a decisão integrada de todas as unidades
individuais produz uma resposta relativamente complicada. Tal sistema pode ser implementado usando
hardware dedicado e minimalista, como foi mostrado no presente estudo.
Os sistemas de visão inteligentes onipresentes geralmente aderem à abordagem de alto nível e
precisam confiar em software, onde a IA é implementada como um algoritmo de aprendizado. Esses
algoritmos devem passar por um processo preliminar de treinamento antes que ele possa dar suas
próprias previsões.
A programação orientada a objetos fornece muitos graus de liberdade e permite uma implementação
direta, onde as entidades de código assumem o papel de neurônios artificiais. Esses neurônios são
3/3
representados por uma função matemática que contém um número muito grande de operações de
multiplicação e soma. Esses algoritmos complexos exigem CPUs fortes que consomem muita energia
para processar a interação entre milhares de neurônios de software multivariáveis.
Quanto à inteligência em nível abstrato, os processadores neurais dedicados podem ser usados. Esses
computadores são compostos de neurônios baseados em hardware orquestrados para executar
cooperativamente tarefas que ultrapassam seu nível inerente de sofisticação. Nesta luz, a pesquisa
demonstrou uma implementação barata e simples, usada para controlar um veículo robótico, com
apenas quatro neurônios de hardware que poderiam ser treinados on-the-fly. Além disso, a aquisição de
imagens bioinspiradas permitiu reduzir consideravelmente o tamanho dos dados de entrada.
Esses conceitos foram demonstrados usando um protótipo de plataforma de visão que foi usado para
manobrar um pequeno veículo robótico. Baseia-se em um microcontrolador e circuito integrado
totalmente programável. O sistema incorporou um processador neural que foi treinado on-the-fly para
associar um conjunto de hieróglifos com instruções de controle motor. Esses símbolos hieroglíficos
estavam ligados a comandos como “ir para a frente e depois vire à direita” ou “volte e depois vire à
esquerda”.
Então, os olhos robóticos precisam “ver” através de uma câmera que foi projetada para satisfazer a
percepção humana?Honestamente, não. E levantar essa limitação pode permitir que eles se movam
para áreas anteriormente impensadas.
Dan Berco, Chih-Hao Chiu e Diing Shenp Ang, Hieroglyically-supervisioned Bioinspired Visio-neural
Controller, Sistemas Inteligentes Avançados (2022), DOI:aisy.202200066
Disclaimer: O autor deste artigo esteve envolvido no estudo
ASN WeeklyTradução
Inscreva-se para receber nossa newsletter semanal e receba as últimas notícias científicas diretamente
na sua caixa de entrada.
ASN WeeklyTradução
Inscreva-se no nosso boletim informativo semanal e receba as últimas notícias científicas.
https://onlinelibrary.wiley.com/doi/full/10.1002/aisy.202200066

Mais conteúdos dessa disciplina