Visual global localization based on deep neural networks for self-driving cars

dc.contributor.advisor1Baduê, Claudine Santos
dc.contributor.advisor1IDhttps://orcid.org/0000-0003-1810-8581
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1359531672303446
dc.contributor.authorCavalcante, Thiago Gonçalves
dc.contributor.authorIDhttps://orcid.org/0000000163583133
dc.contributor.authorLatteshttp://lattes.cnpq.br/1391218125097669
dc.contributor.referee1Krohling, Renato Antonio
dc.contributor.referee1Latteshttp://lattes.cnpq.br/5300435085221378
dc.contributor.referee2Wolf, Denis Fernando
dc.contributor.referee2IDhttps://orcid.org/0000-0003-1485-5686
dc.contributor.referee2Latteshttp://lattes.cnpq.br/8948846267711214
dc.date.accessioned2024-05-30T00:53:25Z
dc.date.available2024-05-30T00:53:25Z
dc.date.issued2022-05-11
dc.description.abstractIn this work, we present a visual global localization system based on Deep Neural Networks (DNNs) for self-driving cars, called DeepVGL (Deep Visual Global Localization), which receives real-time images from a forward-facing camera installed on car’s roof and infers their corresponding position in global coordinates. To this end, DeepVGL is trained with pairs of coordinates and associated images belonging to datasets of autonomous vehicles built with sensor data aligned in time and space through a process of Simultaneous Localization And Mapping (SLAM). To assess the performance of DeepVGL, we carried out experiments using datasets composed of camera images collected by different self-driving cars on trips made over long time spans (over 4 years), thus including significant changes in the environment, traffic volume and weather conditions, as well as different times of the day and seasons of the year. We also compared DeepVGL with a state-of-the-art global localization system based on Weightless Neural Networks (WNN). Finally, we executed experiments using datasets composed of LIDAR range images obtained by a self-driving truck on trips made over reasonable time spans (over 3 months). The experimental results show that DeepVGL can correctly estimate the global localization of the self-driving car up to 75% of the time for an accuracy of 0.2 m and up to 96% of the time for an accuracy of 5 m. The results also show that DeepVGL outperforms WNN, which can correctly locate the self-driving car up to 76% of the time for 0.2 m accuracy, but only up to 89% of the time for 5 m accuracy. Finally, the results show that DeepVGL works better with LIDAR range images than camera images, locating the autonomous truck up to 95% of the time for 0.2 m accuracy and 98% of the time for 5 m accuracy.
dc.description.resumoNeste trabalho, apresentamos um sistema de localização global visual baseado em Redes Neurais Profundas (DNNs) para carros autônomos, denominado DeepVGL (Deep Visual Global Localization), que recebe imagens em tempo real de uma câmera frontal instalada no teto do carro e infere sua posição correspondente em coordenadas globais. Para tanto, o DeepVGL é treinado com pares de coordenadas e imagens associadas pertencentes a conjuntos de dados de veículos autônomos construídos com dados de sensores alinhados no tempo e no espaço por meio de um processo de Localização e Mapeamento Simultâneo (SLAM). Para avaliar o desempenho do DeepVGL, realizamos experimentos usando conjuntos de dados compostos por imagens de câmeras coletadas por diferentes carros autônomos em viagens feitas em longos intervalos de tempo (mais de 4 anos), incluindo mudanças significativas no ambiente, volume de tráfego e condições climáticas, bem como diferentes horas do dia e estações do ano. Também comparamos o DeepVGL com um sistema de localização global de última geração baseado em Redes Neurais Sem Peso (WNN). Por fim, executamos experimentos usando conjuntos de dados compostos por imagens da faixa LIDAR obtidas por um caminhão autônomo em viagens feitas em intervalos de tempo razoáveis (mais de 3 meses). Os resultados experimentais mostram que o DeepVGL pode estimar corretamente a localização global do carro autônomo em até 75% do tempo para uma precisão de 0,2 me até 96% do tempo para uma precisão de 5 m. Os resultados também mostram que o DeepVGL supera a WNN, que pode localizar corretamente o carro autônomo em até 76% do tempo para precisão de 0,2 m, mas apenas até 89% do tempo para precisão de 5 m. Por fim, os resultados mostram que o DeepVGL funciona melhor com imagens de alcance LIDAR do que com imagens de câmera, localizando o caminhão autônomo em até 95% do tempo para precisão de 0,2 m e 98% do tempo para precisão de 5 m.
dc.formatText
dc.identifier.urihttps://dspace5.ufes.br/handle/10/15986
dc.languagepor
dc.publisherUniversidade Federal do Espírito Santo
dc.publisher.countryBR
dc.publisher.courseMestrado em Informática
dc.publisher.departmentCentro Tecnológico
dc.publisher.initialsUFES
dc.publisher.programPrograma de Pós-Graduação em Informática
dc.rightsopen access
dc.subjectRobótica
dc.subjectVeículos autônomos
dc.subject.br-rjbnsubject.br-rjbn
dc.subject.cnpqCiência da Computação
dc.titleVisual global localization based on deep neural networks for self-driving cars
dc.typemasterThesis

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
THIAGO GONCALVES CAVALCANTE.pdf
Tamanho:
1.59 MB
Formato:
Adobe Portable Document Format