| Name: | Description: | Size: | Format: | |
|---|---|---|---|---|
| 44.3 MB | Adobe PDF |
Authors
Advisor(s)
Abstract(s)
In this work, road intersection estimation problem is addressed. In autonomous driving,
safety is one of the most important concerns. Intersections cannot be neglected.
According to the United States department of transportation, around one-quarter
of traffic fatalities and about one-half of all traffic injuries are attributed to intersections.
Until now, many works detect it indirectly by detecting road markings,
road signs, traffic lights and Advanced Driver Assistance Systems (ADAS) maps
information.
Intersections can be considered as a background object. Background has been
oversight in most of the object detection researches that focus on foreground objects.
The approach used, leverages camera and Light Detection and Ranging (LiDAR)
sensors’ information to predict the existence and distance to an intersection, more
specifically its entry and exit. In fact, intersection’s limits are subjective. The goal
is the detection of a zone described as non-stopping area. Its entry is the most
important information. It is defined as last safe stop location before the intersection
and highly important to make a velocity adjustment of the vehicle in such a way
that the car stop in a safe position while slowing down with comfort.
A novel dataset was created due to no previous found dataset with the desired
labels. Deep learning Convolution Neural Network (CNN) architectures are implemented
making use of Bird’s Eye View (BEV) transformations. The proposed
architecture comprise sensor fusion approaches, but tests were performed to evaluate
the performance of each one independently.
Results achieved proved that it is possible to detect intersections with the sensors
and methods proposed. Both sensors’ backbones proved to be able to detect intersections.
Anyway, LiDAR gets better performance than image camera approach.
The fusion of both sensors revealed to be the best solution, taking advantage of
both sensors’ complementary information. Simple intersections with good visibility
achieved the best score while some complex intersections as the case of plural
junctions, revealed to be more challenging.
Neste trabalho, o problema de estimar interseções de estradas é abordado, cruzamentos e entroncamentos. Em condução autónoma, segurança é uma das maiores preocupações. Interseções não podem ser ignoradas. De acordo com o departamento de transportes dos Estados Unidos, cerca de um quarto dos acidentes mortais e metade de todos os acidentes são atribuidos a interseções. Até ao momento, muitos trabalhos dedicam-se à deteção indireta, detetando marcações rodoviárias, sinais de trânsito, semáforos e através de mapas Advanced Driver Assistance Systems (ADAS). Interseções podem ser consideradas como um objeto de segundo plano. Estes têm sido esquecidos na maioria dos trabalhos de pesquisa de deteção de objetos que tendem a focar em objetos em primeiro plano. A abordagem implementada usa informação de câmera e Light Detection and Ranging (LiDAR) para prever a existência e distância à interseção. Mais especificamente, à sua entrada e saída. De facto, os limites de uma interseção são subjetivos. O objetivo é detetar a zona onde não é permitido parar dentro de uma interseção. A entrada é a informação mais importante e pode ser definida como a posição até à qual podemos conduzir com segurança. Sabendo a sua localização, pode ser planeada a paragem ou ajuste da velocidade com conforto até à entrada da interseção. Um novo dataset foi criado devido à inexistência de datasets com as anotações pretendidas. Arquiteturas de Redes Neuronais Convolucionais (CNN) foram implementadas utilizando transformações Bird’s Eye View (BEV). A arquitetura proposta contém a fusão de ambos os sensores, mas testes foram efetuados para avaliar o desempenho de cada sensor independetemente. Os resultados obtidos provam que é possivel detetar interseções com os sensores e métodos propostos. O LiDAR obteve melhores resultados que a câmera. Fusão sensorial revelou ser a melhor abordagem, tirando partido da informação complementar de cada sensor. As interseções mais simples e sem oclusões obtiveram os melhores resultados enquanto que outras mais complexas, como o caso de interseções multiplas, revelaram-se mais dificeis de detetar.
Neste trabalho, o problema de estimar interseções de estradas é abordado, cruzamentos e entroncamentos. Em condução autónoma, segurança é uma das maiores preocupações. Interseções não podem ser ignoradas. De acordo com o departamento de transportes dos Estados Unidos, cerca de um quarto dos acidentes mortais e metade de todos os acidentes são atribuidos a interseções. Até ao momento, muitos trabalhos dedicam-se à deteção indireta, detetando marcações rodoviárias, sinais de trânsito, semáforos e através de mapas Advanced Driver Assistance Systems (ADAS). Interseções podem ser consideradas como um objeto de segundo plano. Estes têm sido esquecidos na maioria dos trabalhos de pesquisa de deteção de objetos que tendem a focar em objetos em primeiro plano. A abordagem implementada usa informação de câmera e Light Detection and Ranging (LiDAR) para prever a existência e distância à interseção. Mais especificamente, à sua entrada e saída. De facto, os limites de uma interseção são subjetivos. O objetivo é detetar a zona onde não é permitido parar dentro de uma interseção. A entrada é a informação mais importante e pode ser definida como a posição até à qual podemos conduzir com segurança. Sabendo a sua localização, pode ser planeada a paragem ou ajuste da velocidade com conforto até à entrada da interseção. Um novo dataset foi criado devido à inexistência de datasets com as anotações pretendidas. Arquiteturas de Redes Neuronais Convolucionais (CNN) foram implementadas utilizando transformações Bird’s Eye View (BEV). A arquitetura proposta contém a fusão de ambos os sensores, mas testes foram efetuados para avaliar o desempenho de cada sensor independetemente. Os resultados obtidos provam que é possivel detetar interseções com os sensores e métodos propostos. O LiDAR obteve melhores resultados que a câmera. Fusão sensorial revelou ser a melhor abordagem, tirando partido da informação complementar de cada sensor. As interseções mais simples e sem oclusões obtiveram os melhores resultados enquanto que outras mais complexas, como o caso de interseções multiplas, revelaram-se mais dificeis de detetar.
Description
Keywords
Intersection detection Autonomous driving Deep learning Convolution neural network LiDAR Camera Deteção de interseções Câmera Condução autónoma Deep learning Redes neuronais convolucionais
