Visual global localization based on deep neural networks for self-driving cars
| dc.contributor.advisor1 | Baduê, Claudine Santos | |
| dc.contributor.advisor1ID | https://orcid.org/0000-0003-1810-8581 | |
| dc.contributor.advisor1Lattes | http://lattes.cnpq.br/1359531672303446 | |
| dc.contributor.author | Cavalcante, Thiago Gonçalves | |
| dc.contributor.authorID | https://orcid.org/0000000163583133 | |
| dc.contributor.authorLattes | http://lattes.cnpq.br/1391218125097669 | |
| dc.contributor.referee1 | Krohling, Renato Antonio | |
| dc.contributor.referee1Lattes | http://lattes.cnpq.br/5300435085221378 | |
| dc.contributor.referee2 | Wolf, Denis Fernando | |
| dc.contributor.referee2ID | https://orcid.org/0000-0003-1485-5686 | |
| dc.contributor.referee2Lattes | http://lattes.cnpq.br/8948846267711214 | |
| dc.date.accessioned | 2024-05-30T00:53:25Z | |
| dc.date.available | 2024-05-30T00:53:25Z | |
| dc.date.issued | 2022-05-11 | |
| dc.description.abstract | In this work, we present a visual global localization system based on Deep Neural Networks (DNNs) for self-driving cars, called DeepVGL (Deep Visual Global Localization), which receives real-time images from a forward-facing camera installed on car’s roof and infers their corresponding position in global coordinates. To this end, DeepVGL is trained with pairs of coordinates and associated images belonging to datasets of autonomous vehicles built with sensor data aligned in time and space through a process of Simultaneous Localization And Mapping (SLAM). To assess the performance of DeepVGL, we carried out experiments using datasets composed of camera images collected by different self-driving cars on trips made over long time spans (over 4 years), thus including significant changes in the environment, traffic volume and weather conditions, as well as different times of the day and seasons of the year. We also compared DeepVGL with a state-of-the-art global localization system based on Weightless Neural Networks (WNN). Finally, we executed experiments using datasets composed of LIDAR range images obtained by a self-driving truck on trips made over reasonable time spans (over 3 months). The experimental results show that DeepVGL can correctly estimate the global localization of the self-driving car up to 75% of the time for an accuracy of 0.2 m and up to 96% of the time for an accuracy of 5 m. The results also show that DeepVGL outperforms WNN, which can correctly locate the self-driving car up to 76% of the time for 0.2 m accuracy, but only up to 89% of the time for 5 m accuracy. Finally, the results show that DeepVGL works better with LIDAR range images than camera images, locating the autonomous truck up to 95% of the time for 0.2 m accuracy and 98% of the time for 5 m accuracy. | |
| dc.description.resumo | Neste trabalho, apresentamos um sistema de localização global visual baseado em Redes Neurais Profundas (DNNs) para carros autônomos, denominado DeepVGL (Deep Visual Global Localization), que recebe imagens em tempo real de uma câmera frontal instalada no teto do carro e infere sua posição correspondente em coordenadas globais. Para tanto, o DeepVGL é treinado com pares de coordenadas e imagens associadas pertencentes a conjuntos de dados de veículos autônomos construídos com dados de sensores alinhados no tempo e no espaço por meio de um processo de Localização e Mapeamento Simultâneo (SLAM). Para avaliar o desempenho do DeepVGL, realizamos experimentos usando conjuntos de dados compostos por imagens de câmeras coletadas por diferentes carros autônomos em viagens feitas em longos intervalos de tempo (mais de 4 anos), incluindo mudanças significativas no ambiente, volume de tráfego e condições climáticas, bem como diferentes horas do dia e estações do ano. Também comparamos o DeepVGL com um sistema de localização global de última geração baseado em Redes Neurais Sem Peso (WNN). Por fim, executamos experimentos usando conjuntos de dados compostos por imagens da faixa LIDAR obtidas por um caminhão autônomo em viagens feitas em intervalos de tempo razoáveis (mais de 3 meses). Os resultados experimentais mostram que o DeepVGL pode estimar corretamente a localização global do carro autônomo em até 75% do tempo para uma precisão de 0,2 me até 96% do tempo para uma precisão de 5 m. Os resultados também mostram que o DeepVGL supera a WNN, que pode localizar corretamente o carro autônomo em até 76% do tempo para precisão de 0,2 m, mas apenas até 89% do tempo para precisão de 5 m. Por fim, os resultados mostram que o DeepVGL funciona melhor com imagens de alcance LIDAR do que com imagens de câmera, localizando o caminhão autônomo em até 95% do tempo para precisão de 0,2 m e 98% do tempo para precisão de 5 m. | |
| dc.format | Text | |
| dc.identifier.uri | https://dspace5.ufes.br/handle/10/15986 | |
| dc.language | por | |
| dc.publisher | Universidade Federal do Espírito Santo | |
| dc.publisher.country | BR | |
| dc.publisher.course | Mestrado em Informática | |
| dc.publisher.department | Centro Tecnológico | |
| dc.publisher.initials | UFES | |
| dc.publisher.program | Programa de Pós-Graduação em Informática | |
| dc.rights | open access | |
| dc.subject | Robótica | |
| dc.subject | Veículos autônomos | |
| dc.subject.br-rjbn | subject.br-rjbn | |
| dc.subject.cnpq | Ciência da Computação | |
| dc.title | Visual global localization based on deep neural networks for self-driving cars | |
| dc.type | masterThesis |
Arquivos
Pacote original
1 - 1 de 1
Carregando...
- Nome:
- THIAGO GONCALVES CAVALCANTE.pdf
- Tamanho:
- 1.59 MB
- Formato:
- Adobe Portable Document Format
