Repository logo
 
Publication

Localização e navegação em ambientes com disrupção de sinal GNSS, utilizando LIDAR e odometria visual

datacite.subject.fosEngenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informática
datacite.subject.sdg09:Indústria, Inovação e Infraestruturas
dc.contributor.advisorDamas, Bruno Duarte
dc.contributor.advisorViegas, Vítor Rodrigues
dc.contributor.authorRasinhas, Frederico Guilherme Raposo Baptista Alves
dc.date.accessioned2025-11-17T15:14:23Z
dc.date.available2025-11-17T15:14:23Z
dc.date.issued2025-08-28
dc.date.submitted2025-11-16
dc.description.abstractUm dos desafios mais prementes no domínio da robótica é o desenvolvimento de sistemas autónomos capazes de estimar continuamente a sua posição e orientação sem depender de referências externas, especialmente face às vulnerabilidades associadas aos Sistemas Globais de Navegação por Satélite (GNSS). Esta necessidade é particularmente evidente em conflitos atuais na Europa e Médio Oriente, onde veículos não tripulados desempenham um papel crescente e essencial. Neste contexto, a presente dissertação centra-se no desenvolvimento de um sistema de localização autónomo robusto, aplicado a um veículo terrestre não tripulado ou Unmanned Ground Vehicle (UGV), o Leo Rover. O objetivo principal consiste em estimar com precisão e robustez a trajetória do veículo utilizando exclusivamente sensores integrados, nomeadamente, um sensor LIDAR, uma câmera, encoders nas rodas e uma Inertial Measuremente Unit (IMU) de baixo custo. A abordagem adotada baseia-se numa fusão sensorial loosely-coupled, onde a pose é inicialmente estimada independentemente através de algoritmos específicos para cada sensor: a odometria visual recorre ao método de fluxo ótico Kanade-Lucas-Tomasi (KLT), sendo a escala relativa determinada pelo ajuste de pontos identificados ao plano do solo; enquanto a odometria LIDAR é obtida através do algoritmo Iterative Closest Point (ICP). Estas estimativas são posteriormente fundidas com medições provenientes das rodas e da IMU através de um Error-State Extended Kalman Filter (ESKF), numa estrutura modular flexível que facilita a integração ou exclusão de sensores adicionais. Para validar a abordagem proposta, foram realizados testes experimentais em ambientes interiores e exteriores, com diferentes níveis de estruturação, visibilidade e condições de iluminação, simulando cenários operacionais realistas. As trajetórias estimadas pelo sistema foram comparadas com medições de referência obtidas a partir de sensores externos, nomeadamente um recetor GNSS e um sistema de posicionamento em ambientes interiores (IPS). Esta comparação permitiu avaliar, de forma rigorosa, a precisão e a robustez do sistema desenvolvido.por
dc.description.abstractOne of the most pressing challenges in the field of robotics is the development of autonomous systems capable of continuously estimating their position and orientation without relying on external references, particularly in light of the vulnerabilities associated with Global Navigation Satellite Systems (GNSS). This need is especially evident in current conflicts in Europe and the Middle East, where unmanned vehicles are playing an increasingly vital role. In this context, the present dissertation focuses on the development of a robust autonomous localization system applied to an unmanned ground vehicle (UGV), the Leo Rover. The main objective is to accurately and reliably estimate the vehicle’s trajectory using only onboard sensors, namely a LIDAR sensor, a camera, wheel encoders and a low-cost Inertial Measurement Unit (IMU). The adopted approach relies on a loosely coupled sensor fusion strategy, where the pose is initially estimated independently using sensorspecific algorithms: visual odometry is based on the Kanade-Lucas-Tomasi (KLT) optical flow method, with relative scale determined by fitting identified points to the ground plane, while LIDAR odometry is computed using the Iterative Closest Point (ICP) algorithm. These independent estimates are then fused with wheel and IMU data through an Error-State Extended Kalman Filter (ESKF), in a flexible modular architecture that facilitates the integration or removal of additional sensors. To validate the proposed approach, experimental tests were conducted in both indoor and outdoor environments, under varying levels of structural complexity, visibility, and lighting conditions, simulating realistic operational scenarios. The estimated trajectories were compared against reference data obtained from external sensors, specifically a GNSS receiver and an Indoor Positioning System (IPS). This comparison enabled a rigorous assessment of the accuracy and robustness of the developed system.eng
dc.identifier.tid204030200
dc.identifier.urihttp://hdl.handle.net/10400.26/59824
dc.language.isopor
dc.rights.uriN/A
dc.subjectFusão Sensorial
dc.subjectOdometria
dc.subjectOdometria Visual
dc.subjectOdometria LIDAR
dc.subjectError State Extended Kalman Filter
dc.subjectSensor Fusion
dc.subjectVisual Odometry
dc.subjectLIDAR Odometry
dc.titleLocalização e navegação em ambientes com disrupção de sinal GNSS, utilizando LIDAR e odometria visualpor
dc.title.alternativeimpacto das tecnologias emergentespor
dc.typemaster thesis
dspace.entity.typePublication
thesis.degree.grantorEscola Naval
thesis.degree.nameDissertação para obtenção do Grau de Mestre em Ciências Militares Navais, na especialidade de Engenharia Naval Ramo de Armas e Eletrónica

Files

Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
EN_M_Alves Rasinhas.pdf
Size:
1.93 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.85 KB
Format:
Item-specific license agreed upon to submission
Description: