Fusão sensorial para localização de robôs móveis no sistema MobiLysa

Oliveira, Matheus Dutra (2022)

tcc

RESUMO: No Brasil existem milhões de pessoas que são portadoras de deficiência visual. Entretanto, existe uma quantidade muito pequena de cães-guias no país, pelo fato do mesmo ter um custo muito alto de aquisição. O cão-guia robô Lysa é constituído por funções que se assemelham a de um cão-guia, no entanto, a Lysa não é capaz de se localizar e navegar em ambientes internos. Desse modo, com intuito de dotar a Lysa dessa capacidade e permitir que a mesma guie pessoas com deficiência visual em ambientes internos, criou-se o MobiLysa, o qual é um sistema composto por vários microsserviços que usam a infraestrutura de um espaço inteligente baseado em visão computacional para guiar a Lysa até o seu destino. Atualmente, o MobiLysa contém apenas um método de localização que usa as câmeras do ambiente e técnicas de processamento de imagem para identificar um marcador do tipo ArUco posicionado em cima do robô e assim localizá-lo. Embora localização por visão seja um método preciso e com erro não acumulativo, contar com apenas uma fonte sensorial para localizar o robô pode não ser suficiente em diferentes tipos de ambiente, especialmente em locais onde as câmeras não cobrem todo o espaço útil de movimentação do robô. Portanto, este projeto propõe melhorias ao processo de localização no MobiLysa, fazendo com que a estimativa da posição do robô seja feita por uma fusão sensorial composta pela união da odometria das rodas do robô e uma técnica de reconstrução visual 3D.

ABSTRACT: In Brazil there are millions of people who are visually impaired. However, there is a very small number of guide dogs in the country, due to the fact that it has a very high cost of acquisition. The Lysa robot guide dog has functions that resemble that of a guide dog, however, Lysa is not able to locate and navigate indoors. Thus, in order to provide Lysa with this capability and allow it to guide visually impaired people indoors, MobiLysa was created, which is a system composed of several microservices that use the infrastructure of an intelligent space based on computer vision to guide Lysa to her destination. Currently, MobiLysa contains only one localization method that uses environmental cameras and image processing techniques to identify an ArUco-type marker positioned on top of the robot and thus locate it. Although localization by vision is an accurate and non-accumulative error method, relying on just one sensory source to locate the robot may not be sufficient in different types of environments, especially in places where the cameras do not cover the entire useful space of movement of the robot. Therefore, this project proposes improvements to the localization process in MobiLysa, making the estimation of the robot's position be done by a sensorial fusion composed by the union of the odometry of the robot's wheels and a 3D visual reconstruction technique.


Collections: