論文の概要: Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image
- arxiv url: http://arxiv.org/abs/2307.13344v1
- Date: Tue, 25 Jul 2023 08:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 17:43:18.182399
- Title: Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image
- Title(参考訳): シングルオンボードカメラ画像からのオンラインレーングラフの事前抽出
- Authors: Yigit Baran Can, Alexander Liniger, Danda Pani Paudel, Luc Van Gool
- Abstract要約: 単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
- 参考スコア(独自算出の注目度): 133.68032636906133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The local road network information is essential for autonomous navigation.
This information is commonly obtained from offline HD-Maps in terms of lane
graphs. However, the local road network at a given moment can be drastically
different than the one given in the offline maps; due to construction works,
accidents etc. Moreover, the autonomous vehicle might be at a location not
covered in the offline HD-Map. Thus, online estimation of the lane graph is
crucial for widespread and reliable autonomous navigation. In this work, we
tackle online Bird's-Eye-View lane graph extraction from a single onboard
camera image. We propose to use prior information to increase quality of the
estimations. The prior is extracted from the dataset through a transformer
based Wasserstein Autoencoder. The autoencoder is then used to enhance the
initial lane graph estimates. This is done through optimization of the latent
space vector. The optimization encourages the lane graph estimation to be
logical by discouraging it to diverge from the prior distribution. We test the
method on two benchmark datasets, NuScenes and Argoverse. The results show that
the proposed method significantly improves the performance compared to
state-of-the-art methods.
- Abstract(参考訳): ローカル道路網情報は自律ナビゲーションに不可欠である。
この情報は、オフラインのHD-Mapsからレーングラフで得られるのが一般的である。
しかし、ある時点での地方道路網は、建設工事や事故などにより、オフライン地図のものとは大きく異なる場合がある。
さらに、自動運転車はオフラインのhdマップに覆われていない場所にあるかもしれない。
したがって、レーングラフのオンライン推定は、広範囲で信頼性の高い自律ナビゲーションに不可欠である。
そこで本研究では,1枚のカメラ画像から鳥眼レーングラフのオンライン抽出に取り組んだ。
我々は,事前情報を用いて推定の質を高めることを提案する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
これは潜在空間ベクトルの最適化によって行われる。
この最適化はレーングラフ推定を論理的に促進し、それ以前の分布から分岐することを阻止する。
この手法をNuScenesとArgoverseの2つのベンチマークデータセットで検証する。
その結果,提案手法は最先端手法に比べて性能が著しく向上することがわかった。
関連論文リスト
- LMT-Net: Lane Model Transformer Network for Automated HD Mapping from Sparse Vehicle Observations [11.395749549636868]
Lane Model Transformer Network (LMT-Net) は、エンコーダとデコーダのニューラルネットワークアーキテクチャであり、ポリリン符号化を実行し、レーンペアとその接続性を予測する。
我々は、複数の車両観測と、地上真実(GT)としての人間のアノテーションからなる内部データセット上でのLMT-Netの性能を評価する。
論文 参考訳(メタデータ) (2024-09-19T02:14:35Z) - Online Lane Graph Extraction from Onboard Video [133.68032636906133]
オンボードカメラからの映像ストリームを、周囲のレーングラフのオンライン抽出に使用しています。
入力が1つの画像ではなくビデオを使うことは、異なるタイムステップからの情報を組み合わせることのメリットと課題の両方をもたらす。
提案手法の1つのモデルでは、1つを含む任意の数の画像を処理し、正確なレーングラフを生成することができる。
論文 参考訳(メタデータ) (2023-04-03T12:36:39Z) - Lane Graph as Path: Continuity-preserving Path-wise Modeling for Online Lane Graph Construction [43.682460811194694]
レーングラフの構築は、自動運転において有望だが挑戦的な課題である。
従来の方法は、通常、ピクセルまたはピースレベルでレーングラフをモデル化し、ピクセルワイドまたはピースワイド接続によってレーングラフを復元する。
本稿では,経路に基づくオンラインレーングラフ構築手法であるLaneGAPについて述べる。
論文 参考訳(メタデータ) (2023-03-15T17:59:13Z) - Learning and Aggregating Lane Graphs for Urban Automated Driving [26.34702432184092]
レーングラフ推定は、自動走行とHDマップ学習において不可欠で非常に困難な課題である。
本稿では,複数の重なり合うグラフを1つの一貫したグラフに集約する空中画像からレーングラフを推定する新しいボトムアップ手法を提案する。
大規模な都市レーングラフデータセットとコードをhttp://urbanlanegraph.cs.uni-freiburg.deで公開しています。
論文 参考訳(メタデータ) (2023-02-13T08:23:35Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Lane Graph Estimation for Scene Understanding in Urban Driving [34.82775302794312]
鳥眼視画像から車線形状を推定する新しい手法を提案する。
人気のあるnuscenesデータセットから処理されたマルチモーダルバードズ・アイビューデータに基づくグラフ推定モデルをトレーニングする。
私達のモデルは最も評価される都市場面のための有望な性能を示し、自動運転のためのHD車線アノテーションの自動生成のステップとして役立つことができます。
論文 参考訳(メタデータ) (2021-05-01T08:38:18Z) - LaneRCNN: Distributed Representations for Graph-Centric Motion
Forecasting [104.8466438967385]
LaneRCNNはグラフ中心のモーション予測モデルです。
アクターごとのローカルレーングラフ表現を学び、過去の動きとローカルマップのトポロジをエンコードします。
我々はレーングラフに基づいて出力軌跡をパラメータ化し,よりアメニブルな予測パラメータ化を行う。
論文 参考訳(メタデータ) (2021-01-17T11:54:49Z) - DAGMapper: Learning to Map by Discovering Lane Topology [84.12949740822117]
我々は、分岐とマージによるトポロジー変化を含む多くのレーンを持つ複雑な高速道路のレーン境界を描くことに集中する。
グラフのノードがレーン境界の局所領域の幾何学的および位相的特性を符号化する有向非巡回グラフィカルモデル(DAG)における推論として問題を定式化する。
2つの異なる州における2つの幹線道路における我々のアプローチの有効性を示し、高い精度とリコールと89%の正しいトポロジーを示す。
論文 参考訳(メタデータ) (2020-12-22T21:58:57Z) - Road Scene Graph: A Semantic Graph-Based Scene Representation Dataset
for Intelligent Vehicles [72.04891523115535]
本稿では,車載用特別シーングラフである道路シーングラフを提案する。
オブジェクトの提案だけでなく、ペアワイドな関係も提供します。
それらをトポロジカルグラフで整理することで、これらのデータは説明可能であり、完全に接続され、GCNによって容易に処理できる。
論文 参考訳(メタデータ) (2020-11-27T07:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。