論文の概要: AutoGraph: Predicting Lane Graphs from Traffic Observations
- arxiv url: http://arxiv.org/abs/2306.15410v2
- Date: Wed, 4 Oct 2023 10:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 21:26:01.199671
- Title: AutoGraph: Predicting Lane Graphs from Traffic Observations
- Title(参考訳): AutoGraph:交通観測からレーングラフを予測する
- Authors: Jannik Z\"urn and Ingmar Posner and Wolfram Burgard
- Abstract要約: 本稿では,交通参加者の動作パターンをレーングラフアノテーションとして利用することを提案する。
これらのトラックレットの位置に基づいて、後続車線グラフを初期位置から予測する。
その後の段階では、個々の後続予測を一貫したレーングラフに集約する方法を示す。
- 参考スコア(独自算出の注目度): 35.73868803802196
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Lane graph estimation is a long-standing problem in the context of autonomous
driving. Previous works aimed at solving this problem by relying on
large-scale, hand-annotated lane graphs, introducing a data bottleneck for
training models to solve this task. To overcome this limitation, we propose to
use the motion patterns of traffic participants as lane graph annotations. In
our AutoGraph approach, we employ a pre-trained object tracker to collect the
tracklets of traffic participants such as vehicles and trucks. Based on the
location of these tracklets, we predict the successor lane graph from an
initial position using overhead RGB images only, not requiring any human
supervision. In a subsequent stage, we show how the individual successor
predictions can be aggregated into a consistent lane graph. We demonstrate the
efficacy of our approach on the UrbanLaneGraph dataset and perform extensive
quantitative and qualitative evaluations, indicating that AutoGraph is on par
with models trained on hand-annotated graph data. Model and dataset will be
made available at redacted-for-review.
- Abstract(参考訳): レーングラフ推定は、自律運転における長年の問題である。
それまでの作業は、大規模で手書きのレーングラフを頼りにすることで、この問題を解決するためのトレーニングモデルのためのデータボトルネックを導入していた。
この制限を克服するため,交通参加者の動作パターンをレーングラフアノテーションとして利用することを提案する。
オートグラフアプローチでは,事前トレーニングされたオブジェクトトラッカを使用して,車両やトラックなどのトラヒック参加者のトラックレットを収集します。
これらのトラックレットの位置に基づいて、人間の監督を必要としないオーバーヘッドRGB画像のみを用いて、後続車線グラフを初期位置から予測する。
その後の段階では、個々の後続予測を一貫したレーングラフに集約する方法を示す。
筆者らは,UrbanLaneGraphデータセットに対するアプローチの有効性を実証し,手書きグラフデータに基づいてトレーニングしたモデルとAutoGraphが同等であることを示す。
モデルとデータセットは再検討で利用可能になる。
関連論文リスト
- nuScenes Knowledge Graph -- A comprehensive semantic representation of
traffic scenes for trajectory prediction [6.23221362105447]
交通シーンにおける軌道予測は、周囲の車両の挙動を正確に予測する。
車両の走行経路、道路トポロジー、車線分割器、交通規則など、文脈情報を考慮することが重要である。
本稿では,知識グラフを用いて交通シーン内の多様なエンティティとその意味的関係をモデル化する手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T10:40:34Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - Learning and Aggregating Lane Graphs for Urban Automated Driving [26.34702432184092]
レーングラフ推定は、自動走行とHDマップ学習において不可欠で非常に困難な課題である。
本稿では,複数の重なり合うグラフを1つの一貫したグラフに集約する空中画像からレーングラフを推定する新しいボトムアップ手法を提案する。
大規模な都市レーングラフデータセットとコードをhttp://urbanlanegraph.cs.uni-freiburg.deで公開しています。
論文 参考訳(メタデータ) (2023-02-13T08:23:35Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Unboxing the graph: Neural Relational Inference for Mobility Prediction [15.4049962498675]
グラフネットワーク(GNN)は、非ユークリッド空間データに広く応用されている。
本稿では,最適グラフモデルを動的に学習するニューラル推論を用いる。
論文 参考訳(メタデータ) (2022-01-25T13:26:35Z) - Lane Graph Estimation for Scene Understanding in Urban Driving [34.82775302794312]
鳥眼視画像から車線形状を推定する新しい手法を提案する。
人気のあるnuscenesデータセットから処理されたマルチモーダルバードズ・アイビューデータに基づくグラフ推定モデルをトレーニングする。
私達のモデルは最も評価される都市場面のための有望な性能を示し、自動運転のためのHD車線アノテーションの自動生成のステップとして役立つことができます。
論文 参考訳(メタデータ) (2021-05-01T08:38:18Z) - LaneRCNN: Distributed Representations for Graph-Centric Motion
Forecasting [104.8466438967385]
LaneRCNNはグラフ中心のモーション予測モデルです。
アクターごとのローカルレーングラフ表現を学び、過去の動きとローカルマップのトポロジをエンコードします。
我々はレーングラフに基づいて出力軌跡をパラメータ化し,よりアメニブルな予測パラメータ化を行う。
論文 参考訳(メタデータ) (2021-01-17T11:54:49Z) - Road Scene Graph: A Semantic Graph-Based Scene Representation Dataset
for Intelligent Vehicles [72.04891523115535]
本稿では,車載用特別シーングラフである道路シーングラフを提案する。
オブジェクトの提案だけでなく、ペアワイドな関係も提供します。
それらをトポロジカルグラフで整理することで、これらのデータは説明可能であり、完全に接続され、GCNによって容易に処理できる。
論文 参考訳(メタデータ) (2020-11-27T07:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。