Prévia do material em texto
1/3 Olhos robóticos não têm força da percepção humana Forçar robôs a ver através dos olhos de um ser humano é limitante. Olhos robóticos inteligentes que podem pensar por si mesmos podem ser a resposta. Em seu épico filme de 1968, 2001: Uma Odisseia no Espaço, Stanley Kubrick incorporou cenas inesquecíveis em que o computador senciente, HAL, observa Dave, o cientista a bordo da espaçonave Discovery One. Este retrato de uma forma como uma máquina percebe o mundo é, em última análise, definido por nossa própria percepção dele. Na prática, construímos e ensinamos a IA a entender o mundo como se estivesse olhando através de nossos próprios olhos. Como resultado, a maioria dos sistemas de visão artificial depende de câmeras que produzem imagens destinadas aos seres humanos, que formam a base para o treinamento de uma rede neural. No entanto, forçar os olhos robóticos a ver através de nossa própria interpretação cognitiva pode realmente prejudicar seu verdadeiro potencial. Quais são as alternativas que os robôs poderiam usar? É difícil pensar sobre a percepção do mundo além da nossa própria experiência. A capacidade dos organismos biológicos de compreender a realidade foi moldada pelas necessidades de sobrevivência e moldada pela evolução ao longo de centenas de milhões de anos. No entanto, a IA não está confinada a essa construção. Uma pesquisa publicada na revista Advanced Intelligent Systems tenta abordar esta questão, propondo uma nova abordagem à visão artificial. O objetivo é implementar um aparelho de percepção visual inteligente que imita as células biológicas da retina e seus neurônios de conexão em um nível https://onlinelibrary.wiley.com/doi/full/10.1002/aisy.202200066 2/3 fundamental. Além disso, incorpora uma pequena rede neural artificial baseada em hardware destinada a realizar tarefas rudimentares semelhantes às funções elementares do córtex visual. Quão “inteligentes” esses olhos robóticos precisam ser? Os olhos robóticos com percepção visual artificial são fundamentais para algumas tecnologias importantes, como sistemas de segurança automotiva, fabricação industrial e até mesmo equipamentos médicos avançados. Essas plataformas geralmente são caras, pois são baseadas em uma câmera para capturar imagens que são processadas por um complexo algoritmo de IA que está sendo executado sobre uma CPU forte. Além disso, a IA deve passar por um extenso treinamento offline com bancos de dados grandes e detalhados. Mas todas as aplicações de máquinas inteligentes exigem hardware de ponta com cognição de alto nível em seu processo de aprendizagem? A compreensão abstrata pode ser suficiente em algumas aplicações, onde a IA só precisa fazer suposições básicas ou abrangentes. Por exemplo, identificar uma bola ou objeto redondo pode ser suficiente em certas situações, sem exigir que o sistema diferencie entre uma bola de basquete e uma bola de beisebol. Essa IA não precisa depender de uma CPU e seria consideravelmente mais barata. Além disso, pode ser operado mesmo sem ter que depender de uma câmera. Por exemplo, a visão abstrata pode ser usada para simplesmente identificar bolas desfeitas e desproporcionais. A resposta à pergunta anterior afeta diretamente o custo e a complexidade dos sistemas de IA. No primeiro caso, uma grande rede neural artificial é necessária, enquanto a segunda pode ser abordada fabricando blocos de construção pequenos e baratos que funcionam em paralelo. Referindo-se ao exemplo anterior, tanto as bolas de basquete quanto as bolas de beisebol podem ter características únicas e diferenciadas. Uma rede de alto nível de compreensão deve levar em conta essas nuances e aprender a classificá-las corretamente. A quantidade de informações alimentadas na IA pode ser bastante grande. Como resultado, o tamanho da rede e as complexidades podem crescer rapidamente e o gasto energético associado aumenta ainda mais rápido. Por outro lado, uma IA com compreensão abstrata pode ser pequena e simples, projetada para apenas identificar se a imagem capturada contém ou não uma forma com uma única simetria. Um conjunto de tais entidades pode dizer quando um objeto em forma de bola está sendo apresentado identificando múltiplos eixos de simetria dentro da imagem. Assim, a decisão integrada de todas as unidades individuais produz uma resposta relativamente complicada. Tal sistema pode ser implementado usando hardware dedicado e minimalista, como foi mostrado no presente estudo. Os sistemas de visão inteligentes onipresentes geralmente aderem à abordagem de alto nível e precisam confiar em software, onde a IA é implementada como um algoritmo de aprendizado. Esses algoritmos devem passar por um processo preliminar de treinamento antes que ele possa dar suas próprias previsões. A programação orientada a objetos fornece muitos graus de liberdade e permite uma implementação direta, onde as entidades de código assumem o papel de neurônios artificiais. Esses neurônios são 3/3 representados por uma função matemática que contém um número muito grande de operações de multiplicação e soma. Esses algoritmos complexos exigem CPUs fortes que consomem muita energia para processar a interação entre milhares de neurônios de software multivariáveis. Quanto à inteligência em nível abstrato, os processadores neurais dedicados podem ser usados. Esses computadores são compostos de neurônios baseados em hardware orquestrados para executar cooperativamente tarefas que ultrapassam seu nível inerente de sofisticação. Nesta luz, a pesquisa demonstrou uma implementação barata e simples, usada para controlar um veículo robótico, com apenas quatro neurônios de hardware que poderiam ser treinados on-the-fly. Além disso, a aquisição de imagens bioinspiradas permitiu reduzir consideravelmente o tamanho dos dados de entrada. Esses conceitos foram demonstrados usando um protótipo de plataforma de visão que foi usado para manobrar um pequeno veículo robótico. Baseia-se em um microcontrolador e circuito integrado totalmente programável. O sistema incorporou um processador neural que foi treinado on-the-fly para associar um conjunto de hieróglifos com instruções de controle motor. Esses símbolos hieroglíficos estavam ligados a comandos como “ir para a frente e depois vire à direita” ou “volte e depois vire à esquerda”. Então, os olhos robóticos precisam “ver” através de uma câmera que foi projetada para satisfazer a percepção humana?Honestamente, não. E levantar essa limitação pode permitir que eles se movam para áreas anteriormente impensadas. Dan Berco, Chih-Hao Chiu e Diing Shenp Ang, Hieroglyically-supervisioned Bioinspired Visio-neural Controller, Sistemas Inteligentes Avançados (2022), DOI:aisy.202200066 Disclaimer: O autor deste artigo esteve envolvido no estudo ASN WeeklyTradução Inscreva-se para receber nossa newsletter semanal e receba as últimas notícias científicas diretamente na sua caixa de entrada. ASN WeeklyTradução Inscreva-se no nosso boletim informativo semanal e receba as últimas notícias científicas. https://onlinelibrary.wiley.com/doi/full/10.1002/aisy.202200066