論文の概要: LAformer: Trajectory Prediction for Autonomous Driving with Lane-Aware
Scene Constraints
- arxiv url: http://arxiv.org/abs/2302.13933v1
- Date: Mon, 27 Feb 2023 16:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 14:51:35.068730
- Title: LAformer: Trajectory Prediction for Autonomous Driving with Lane-Aware
Scene Constraints
- Title(参考訳): LAformer:レーン対応シーン制約による自律走行の軌道予測
- Authors: Mengmeng Liu, Hao Cheng, Lin Chen, Hellward Broszio, Jiangtao Li,
Runjiang Zhao, Monika Sester and Michael Ying Yang
- Abstract要約: 自律走行の軌道予測は、道路エージェントの運動性を連続的に推論し、シーン制約に従わなければならない。
既存の手法は通常、1段階の軌跡予測モデルに依存し、将来の軌跡を観測された軌跡と融合した風景情報に条件付ける。
本稿では、時間的に密度の高い車線推定モジュールを用いて、HDマップの上位高電位車線セグメントのみを選択するLAformerという新しい手法を提案する。
- 参考スコア(独自算出の注目度): 16.861461971702596
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Trajectory prediction for autonomous driving must continuously reason the
motion stochasticity of road agents and comply with scene constraints. Existing
methods typically rely on one-stage trajectory prediction models, which
condition future trajectories on observed trajectories combined with fused
scene information. However, they often struggle with complex scene constraints,
such as those encountered at intersections. To this end, we present a novel
method, called LAformer. It uses a temporally dense lane-aware estimation
module to select only the top highly potential lane segments in an HD map,
which effectively and continuously aligns motion dynamics with scene
information, reducing the representation requirements for the subsequent
attention-based decoder by filtering out irrelevant lane segments.
Additionally, unlike one-stage prediction models, LAformer utilizes predictions
from the first stage as anchor trajectories and adds a second-stage motion
refinement module to further explore temporal consistency across the complete
time horizon. Extensive experiments on Argoverse 1 and nuScenes demonstrate
that LAformer achieves excellent performance for multimodal trajectory
prediction.
- Abstract(参考訳): 自律走行の軌道予測は、道路エージェントの運動確率を連続的に推論し、シーン制約に従わなければならない。
既存の手法は通常、1段階の軌跡予測モデルに依存しており、将来の軌跡は観測された軌跡と融合する。
しかし、交差点で遭遇するような複雑なシーンの制約に苦しむことが多い。
そこで我々はLAformerと呼ばれる新しい手法を提案する。
時間的に密集したレーンアウェア推定モジュールを使用してhdマップ内の最上位の高電位レーンセグメントのみを選択し、効果的かつ連続的に動きのダイナミクスをシーン情報に整合させ、無関係レーンセグメントをフィルタリングすることにより、後続の注意に基づくデコーダの表現要件を低減させる。
さらに、一段階予測モデルとは異なり、ラフォーマーは第1段からの予測をアンカー軌道として利用し、第2段のモーションリファインメントモジュールを追加して、完全な時間軸の時間的一貫性をさらに探究する。
Argoverse 1 と nuScenes の大規模な実験により、LAformer はマルチモーダル軌道予測において優れた性能を発揮することが示された。
関連論文リスト
- Motion Forecasting in Continuous Driving [41.6423398623095]
自動運転では、自動運転車が動くと、動きの予測が繰り返し繰り返される。
既存の予測方法は、特定の範囲内で各走行シーンを独立に処理する。
本稿では,連続運転のための新しい動き予測フレームワークであるRealMotionを提案する。
論文 参考訳(メタデータ) (2024-10-08T13:04:57Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - An End-to-End Vehicle Trajcetory Prediction Framework [3.7311680121118345]
将来の軌道の正確な予測は、以前の軌道に依存するだけでなく、近くの他の車両間の複雑な相互作用のシミュレーションにも依存する。
この問題に対処するために構築されたほとんどの最先端のネットワークは、軌跡をたどって容易に利用できると仮定している。
本稿では,生のビデオ入力を取り込み,将来の軌跡予測を出力する新しいエンドツーエンドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-19T15:42:03Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Ellipse Loss for Scene-Compliant Motion Prediction [12.446392441065065]
本研究では,シーンコンプライアンスをよりよく推論し,より現実的な軌跡を予測できる新しい楕円損失を提案する。
楕円損失は、出力軌跡をトップダウンマップフレームに投影することにより、教師付き方法でオフロード予測を直接ペナルティ化する。
アクターの寸法と方向を考慮に入れ、モデルにより直接的なトレーニング信号を提供する。
論文 参考訳(メタデータ) (2020-11-05T23:33:56Z) - Map-Adaptive Goal-Based Trajectory Prediction [3.1948816877289263]
本稿では,多モーダル・長期車両軌道予測のための新しい手法を提案する。
提案手法は,各車両に提案された目標経路の集合を生成するために,環境のリッチマップで捉えた車線中心線を利用することに依存する。
本モデルは,6秒の水平線上での車両軌道予測において,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-09T17:57:01Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Physically constrained short-term vehicle trajectory forecasting with
naive semantic maps [6.85316573653194]
本稿では,エージェントの一般的な動きだけでなく,意味地図から関連する道路特徴を抽出する学習モデルを提案する。
我々は,道路境界を考慮した将来の動きを予測できるだけでなく,当初の訓練よりも長い時間的地平線の軌道を効果的かつ正確に予測できることを示した。
論文 参考訳(メタデータ) (2020-06-09T09:52:44Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。