論文の概要: Trajectory Prediction for Autonomous Driving based on Multi-Head
Attention with Joint Agent-Map Representation
- arxiv url: http://arxiv.org/abs/2005.02545v3
- Date: Wed, 2 Sep 2020 22:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 06:09:18.795719
- Title: Trajectory Prediction for Autonomous Driving based on Multi-Head
Attention with Joint Agent-Map Representation
- Title(参考訳): 統合エージェントマップ表現によるマルチヘッド注意に基づく自律走行の軌道予測
- Authors: Kaouther Messaoud, Nachiket Deo, Mohan M. Trivedi, Fawzi Nashashibi
- Abstract要約: エージェントの将来の軌跡は、エージェントの位置と過去の動きと静的なシーン構造という2つの重要な手がかりを用いて推測することができる。
本稿では,静的シーンと周辺エージェントの同時表現を考慮したマルチヘッドアテンション手法を提案する。
提案モデルでは,nuScenes 予測ベンチマークの結果が得られ,シーン構造やエージェント構成に適合した様々な将来の軌跡が生成される。
- 参考スコア(独自算出の注目度): 8.203012391711932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting the trajectories of surrounding agents is an essential ability for
autonomous vehicles navigating through complex traffic scenes. The future
trajectories of agents can be inferred using two important cues: the locations
and past motion of agents, and the static scene structure. Due to the high
variability in scene structure and agent configurations, prior work has
employed the attention mechanism, applied separately to the scene and agent
configuration to learn the most salient parts of both cues. However, the two
cues are tightly linked. The agent configuration can inform what part of the
scene is most relevant to prediction. The static scene in turn can help
determine the relative influence of agents on each other's motion. Moreover,
the distribution of future trajectories is multimodal, with modes corresponding
to the agent's intent. The agent's intent also informs what part of the scene
and agent configuration is relevant to prediction. We thus propose a novel
approach applying multi-head attention by considering a joint representation of
the static scene and surrounding agents. We use each attention head to generate
a distinct future trajectory to address multimodality of future trajectories.
Our model achieves state of the art results on the nuScenes prediction
benchmark and generates diverse future trajectories compliant with scene
structure and agent configuration.
- Abstract(参考訳): 周囲のエージェントの軌道を予測することは、複雑な交通シーンを自律走行する上で必須の機能である。
エージェントの将来の軌跡は、エージェントの位置と過去の動きと静的なシーン構造という2つの重要な手がかりを用いて推測することができる。
シーン構造やエージェント構成のばらつきが高いため、以前の作業ではアテンション機構を採用しており、シーンとエージェント構成に別々に適用して、両方のキューの最も顕著な部分を学ぶ。
しかし、両者は強く結びついている。
エージェントの設定は、シーンのどの部分が予測に最も関係しているかを知らせることができる。
静的なシーンは、互いの動きに対するエージェントの相対的な影響を決定するのに役立つ。
さらに、将来の軌道の分布はマルチモーダルであり、エージェントの意図に応じたモードを持つ。
エージェントの意図はまた、シーンとエージェントの構成のどの部分が予測に関係しているかを知らせる。
そこで本稿では,静的シーンと周辺エージェントの同時表現を考慮したマルチヘッドアテンション手法を提案する。
それぞれの注目ヘッドを用いて、将来の軌跡の多様性に対応するために、異なる将来の軌跡を生成する。
本モデルでは, nnuScenes 予測ベンチマークを用いて, シーン構造とエージェント構成に適合した多種多様な将来の軌跡を生成する。
関連論文リスト
- SIMMF: Semantics-aware Interactive Multiagent Motion Forecasting for
Autonomous Vehicle Driving [2.7195102129095003]
本研究では,意味を空間情報とともに捉えるための意味認識型対話型マルチエージェント動作予測手法を提案する。
具体的には、シーンから関連するエージェントのセマンティック・アウェア・セレクションを実装し、アテンション・メカニズムを通してそれらを渡すことでこれを実現する。
その結果,提案手法は最先端のベースラインより優れており,より正確かつシーン一貫性のある予測が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T17:54:24Z) - Scene Transformer: A unified multi-task model for behavior prediction
and planning [42.758178896204036]
実世界の運転環境における全てのエージェントの行動予測モデルを定式化する。
近年の言語モデリングアプローチにインスパイアされた我々は、マスキング戦略をモデルに対するクエリとして使用しています。
我々は,行動予測のための自律走行データセットに対するアプローチを評価し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-06-15T20:20:44Z) - Latent Variable Nested Set Transformers & AutoBots [25.194344543085005]
ネスト集合の自己回帰的モデリングシーケンスに基づくこの問題設定のための理論的枠組みを提案する。
集合の要素間の社会的関心の形式として機能する集合の集合に対して、マルチヘッドの自己アテンションブロックを採用する新しいモデルアーキテクチャを提示する。
我々は、シーン内の複数のエージェントのキー属性のシーケンシャルな観察に基づいて、エゴエージェントの軌道をモデル化する、自律運転設定のためのNested Set Transformer("AutoBot")を検証する。
論文 参考訳(メタデータ) (2021-02-19T18:53:26Z) - Instance-Aware Predictive Navigation in Multi-Agent Environments [93.15055834395304]
エージェント間の相互作用と将来のシーン構造を予測するIPC(Instance-Aware Predictive Control)アプローチを提案する。
我々は,ego中心の視点でエージェント間のインタラクションを推定するために,新しいマルチインスタンスイベント予測モジュールを採用する。
シーンレベルとインスタンスレベルの両方の予測状態をより有効活用するために、一連のアクションサンプリング戦略を設計します。
論文 参考訳(メタデータ) (2021-01-14T22:21:25Z) - TNT: Target-driveN Trajectory Prediction [76.21200047185494]
我々は移動エージェントのための目標駆動軌道予測フレームワークを開発した。
我々は、車や歩行者の軌道予測をベンチマークする。
私たちはArgoverse Forecasting、InterAction、Stanford Drone、および社内のPedestrian-at-Intersectionデータセットの最先端を達成しています。
論文 参考訳(メタデータ) (2020-08-19T06:52:46Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Traffic Agent Trajectory Prediction Using Social Convolution and
Attention Mechanism [57.68557165836806]
本稿では,自律走行車周辺における標的エージェントの軌道予測モデルを提案する。
対象エージェントの履歴トラジェクトリをアテンションマスクとしてエンコードし、ターゲットエージェントとその周辺エージェント間の対話関係をエンコードするソーシャルマップを構築する。
提案手法の有効性を検証するため,提案手法を公開データセット上の複数の手法と比較し,20%の誤差低減を実現した。
論文 参考訳(メタデータ) (2020-07-06T03:48:08Z) - Robust Trajectory Forecasting for Multiple Intelligent Agents in Dynamic
Scene [11.91073327154494]
動的シーンにおける複数エージェントのロバストな軌道予測手法を提案する。
提案手法は予測精度の点で最先端の予測手法より優れている。
論文 参考訳(メタデータ) (2020-05-27T02:32:55Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Diverse and Admissible Trajectory Forecasting through Multimodal Context
Understanding [46.52703817997932]
自律走行におけるマルチエージェント軌道予測には、周囲の車両や歩行者の挙動を正確に予測するエージェントが必要である。
マルチモーダル世界から複数の入力信号を合成するモデルを提案する。
従来の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-06T13:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。