Publication
Road intersection estimation
| datacite.subject.fos | Engenharia e Tecnologia | pt_PT |
| dc.contributor.advisor | Ramos, Carlos Fernando da Silva | |
| dc.contributor.author | Costa, Pedro Miguel Marques | |
| dc.date.accessioned | 2024-12-12T11:09:22Z | |
| dc.date.embargo | 2027-12-12 | |
| dc.date.issued | 2024-10-14 | |
| dc.description.abstract | In this work, road intersection estimation problem is addressed. In autonomous driving, safety is one of the most important concerns. Intersections cannot be neglected. According to the United States department of transportation, around one-quarter of traffic fatalities and about one-half of all traffic injuries are attributed to intersections. Until now, many works detect it indirectly by detecting road markings, road signs, traffic lights and Advanced Driver Assistance Systems (ADAS) maps information. Intersections can be considered as a background object. Background has been oversight in most of the object detection researches that focus on foreground objects. The approach used, leverages camera and Light Detection and Ranging (LiDAR) sensors’ information to predict the existence and distance to an intersection, more specifically its entry and exit. In fact, intersection’s limits are subjective. The goal is the detection of a zone described as non-stopping area. Its entry is the most important information. It is defined as last safe stop location before the intersection and highly important to make a velocity adjustment of the vehicle in such a way that the car stop in a safe position while slowing down with comfort. A novel dataset was created due to no previous found dataset with the desired labels. Deep learning Convolution Neural Network (CNN) architectures are implemented making use of Bird’s Eye View (BEV) transformations. The proposed architecture comprise sensor fusion approaches, but tests were performed to evaluate the performance of each one independently. Results achieved proved that it is possible to detect intersections with the sensors and methods proposed. Both sensors’ backbones proved to be able to detect intersections. Anyway, LiDAR gets better performance than image camera approach. The fusion of both sensors revealed to be the best solution, taking advantage of both sensors’ complementary information. Simple intersections with good visibility achieved the best score while some complex intersections as the case of plural junctions, revealed to be more challenging. | pt_PT |
| dc.description.abstract | Neste trabalho, o problema de estimar interseções de estradas é abordado, cruzamentos e entroncamentos. Em condução autónoma, segurança é uma das maiores preocupações. Interseções não podem ser ignoradas. De acordo com o departamento de transportes dos Estados Unidos, cerca de um quarto dos acidentes mortais e metade de todos os acidentes são atribuidos a interseções. Até ao momento, muitos trabalhos dedicam-se à deteção indireta, detetando marcações rodoviárias, sinais de trânsito, semáforos e através de mapas Advanced Driver Assistance Systems (ADAS). Interseções podem ser consideradas como um objeto de segundo plano. Estes têm sido esquecidos na maioria dos trabalhos de pesquisa de deteção de objetos que tendem a focar em objetos em primeiro plano. A abordagem implementada usa informação de câmera e Light Detection and Ranging (LiDAR) para prever a existência e distância à interseção. Mais especificamente, à sua entrada e saída. De facto, os limites de uma interseção são subjetivos. O objetivo é detetar a zona onde não é permitido parar dentro de uma interseção. A entrada é a informação mais importante e pode ser definida como a posição até à qual podemos conduzir com segurança. Sabendo a sua localização, pode ser planeada a paragem ou ajuste da velocidade com conforto até à entrada da interseção. Um novo dataset foi criado devido à inexistência de datasets com as anotações pretendidas. Arquiteturas de Redes Neuronais Convolucionais (CNN) foram implementadas utilizando transformações Bird’s Eye View (BEV). A arquitetura proposta contém a fusão de ambos os sensores, mas testes foram efetuados para avaliar o desempenho de cada sensor independetemente. Os resultados obtidos provam que é possivel detetar interseções com os sensores e métodos propostos. O LiDAR obteve melhores resultados que a câmera. Fusão sensorial revelou ser a melhor abordagem, tirando partido da informação complementar de cada sensor. As interseções mais simples e sem oclusões obtiveram os melhores resultados enquanto que outras mais complexas, como o caso de interseções multiplas, revelaram-se mais dificeis de detetar. | pt_PT |
| dc.identifier.tid | 203733940 | pt_PT |
| dc.identifier.uri | http://hdl.handle.net/10400.22/26766 | |
| dc.language.iso | eng | pt_PT |
| dc.subject | Intersection detection | pt_PT |
| dc.subject | Autonomous driving | pt_PT |
| dc.subject | Deep learning | pt_PT |
| dc.subject | Convolution neural network | pt_PT |
| dc.subject | LiDAR | pt_PT |
| dc.subject | Camera | pt_PT |
| dc.subject | Deteção de interseções | pt_PT |
| dc.subject | Câmera | pt_PT |
| dc.subject | Condução autónoma | pt_PT |
| dc.subject | Deep learning | pt_PT |
| dc.subject | Redes neuronais convolucionais | pt_PT |
| dc.title | Road intersection estimation | pt_PT |
| dc.title.alternative | Deteção de cruzamentos em estradas | pt_PT |
| dc.type | master thesis | |
| dspace.entity.type | Publication | |
| rcaap.rights | embargoedAccess | pt_PT |
| rcaap.type | masterThesis | pt_PT |
| thesis.degree.name | Mestrado em Engenharia Eletrotécnica e de Computadores | pt_PT |
