Cientistas da computação ensinaram a um agente de inteligência artificial como fazer algo que usualmente só humanos podem fazer – dar uma olhada rápida e deduzir todo o seu ambiente, uma habilidade necessária para o desenvolvimento de robôs de busca e salvamento eficazes que um dia podem melhorar a eficácia das missões perigosas.

A maioria dos agentes de IA – sistemas de computador que podem dar inteligência a robôs ou outras máquinas – são treinados para tarefas muito específicas – como reconhecer um objeto ou estimar seu volume – em um ambiente que já experimentaram, como uma fábrica. Mas o agente desenvolvido por Grauman e Ramakrishnan é de propósito geral, reunindo informações visuais que podem ser usadas para uma ampla gama de tarefas.

“Queremos um agente que geralmente esteja equipado para entrar em ambientes e esteja pronto para novas tarefas de percepção à medida que surgirem”, disse Grauman. “Ele se comporta de uma maneira que é versátil e capaz de ter sucesso em tarefas diferentes, porque aprendeu padrões úteis sobre o mundo visual”.

Os cientistas usaram o aprendizado profundo, um tipo de aprendizado de máquina inspirado nas redes neurais do cérebro, para treinar seu agente em milhares de imagens de 360 ​​graus de diferentes ambientes.

Agora, quando apresentado a uma cena que nunca viu antes, o agente usa sua experiência para escolher alguns vislumbres – como um turista em pé no meio de uma catedral tirando alguns instantâneos em direções diferentes – que juntos somam menos de 20 por cento da cena completa. O que torna esse sistema tão eficaz é que ele não está apenas tirando fotos em direções aleatórias, mas, depois de cada vislumbre, escolher a próxima tomada que ele prevê adicionará as informações mais novas sobre a cena inteira. Isto é muito parecido com se você estivesse em uma mercearia que você nunca tinha visitado antes, e você visse maçãs, você esperaria encontrar laranjas por perto, mas para localizar o leite, você poderia olhar para o outro lado. Baseado em vislumbres, o agente infere o que teria visto se tivesse olhado em todas as outras direções,

“Assim como você traz informações prévias sobre as regularidades que existem em ambientes previamente experientes – como todas as mercearias que você já visitou – este agente procura de maneira não exaustiva”, disse Grauman. “Ele aprende a fazer suposições inteligentes sobre onde coletar informações visuais para ter sucesso nas tarefas de percepção.”

Um dos principais desafios que os cientistas definiram para si foi projetar um agente que possa trabalhar com restrições de tempo apertadas. Isso seria crítico em um aplicativo de busca e salvamento. Por exemplo, em um prédio em chamas, um robô seria chamado para localizar rapidamente pessoas, chamas e materiais perigosos e retransmitir essas informações para os bombeiros.

Por enquanto, o novo agente opera como uma pessoa parada em um ponto, com a capacidade de apontar uma câmera em qualquer direção, mas sem conseguir se mover para uma nova posição. Ou, de forma equivalente, o agente poderia contemplar um objeto que está segurando e decidir como girar o objeto para inspecionar o outro lado dele. Em seguida, os pesquisadores estão desenvolvendo o sistema ainda mais para trabalhar em um robô totalmente móvel.

Usando os supercomputadores do Centro de Computação Avançada do Texas da UT Austin e do Departamento de Ciência da Computação, levou cerca de um dia para treinar seu agente usando uma abordagem de inteligência artificial chamada aprendizado por reforço. A equipe, com a liderança de Ramakrishnan, desenvolveu um método para acelerar o treinamento: a construção de um segundo agente, chamado sidekick, para auxiliar o agente primário.

Fonte: IE MUNDO

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui