論文の概要: R-Pred: Two-Stage Motion Prediction Via Tube-Query Attention-Based
Trajectory Refinement
- arxiv url: http://arxiv.org/abs/2211.08609v1
- Date: Wed, 16 Nov 2022 01:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 15:21:59.231589
- Title: R-Pred: Two-Stage Motion Prediction Via Tube-Query Attention-Based
Trajectory Refinement
- Title(参考訳): r-pred:チューブ問合せによる2段階運動予測
- Authors: Sehwan Choi, Jungho Kim, Junyong Yun, Jun Won Choi
- Abstract要約: R-Predはシーンとインタラクションの両方を効果的に活用する2段階の動作予測手法である。
Argoverse と nuScenes のデータセットを用いて行った実験により,提案した改良ネットワークが大幅な性能向上をもたらすことが示された。
- 参考スコア(独自算出の注目度): 7.387544968145937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting the future motion of dynamic agents is of paramount importance to
ensure safety or assess risks in motion planning for autonomous robots. In this
paper, we propose a two-stage motion prediction method, referred to as R-Pred,
that effectively utilizes both the scene and interaction context using a
cascade of the initial trajectory proposal network and the trajectory
refinement network. The initial trajectory proposal network produces M
trajectory proposals corresponding to M modes of a future trajectory
distribution. The trajectory refinement network enhances each of M proposals
using 1) the tube-query scene attention (TQSA) and 2) the proposal-level
interaction attention (PIA). TQSA uses tube-queries to aggregate the local
scene context features pooled from proximity around the trajectory proposals of
interest. PIA further enhances the trajectory proposals by modeling inter-agent
interactions using a group of trajectory proposals selected based on their
distances from neighboring agents. Our experiments conducted on the Argoverse
and nuScenes datasets demonstrate that the proposed refinement network provides
significant performance improvements compared to the single-stage baseline and
that R-Pred achieves state-of-the-art performance in some categories of the
benchmark.
- Abstract(参考訳): 自律ロボットの動作計画における安全性の確保やリスク評価には,動的エージェントの今後の動きを予測することが極めて重要である。
本稿では,最初の軌道提案ネットワークと軌道修正ネットワークのカスケードを用いて,シーンとインタラクションの両方を効果的に活用する,R-Predと呼ばれる2段階の動作予測手法を提案する。
初期軌道提案ネットワークは、将来の軌道分布のmモードに対応するm軌道提案を生成する。
軌道修正ネットワークは、m提案のそれぞれを改良する
1)チューブ検索シーンアテンション(tqsa)および
2)提案レベルのインタラクションアテンション(PIA)。
tqsaはチューブキューを使用して、興味のある軌道提案の周辺からプールされたローカルなシーンコンテキストを集約する。
PIAはさらに、隣接するエージェントからの距離に基づいて選択された一連の軌道提案を用いて、エージェント間相互作用をモデル化することで、軌道提案をさらに強化する。
Argoverse および nuScenes データセットを用いて行った実験により,提案する改良ネットワークは,単段ベースラインと比較して大幅な性能向上を実現し,R-Pred がベンチマークのいくつかのカテゴリで最先端のパフォーマンスを達成することを示した。
関連論文リスト
- Vectorized Representation Dreamer (VRD): Dreaming-Assisted Multi-Agent Motion-Forecasting [2.2020053359163305]
マルチエージェント動作予測問題に対するベクトル化された世界モデルに基づくアプローチであるVRDを紹介する。
本手法では,従来のオープンループトレーニングシステムと,新しい夢のクローズループトレーニングパイプラインを組み合わせる。
本モデルでは,1つの予測ミスレート測定値に対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-20T15:34:17Z) - MTR++: Multi-Agent Motion Prediction with Symmetric Scene Modeling and
Guided Intention Querying [110.83590008788745]
自律運転システムにとって、複雑な運転シナリオを理解し、情報的な決定を下すためには、動きの予測が不可欠である。
本稿では,これらの課題に対処するためのMotion TRansformer (MTR) フレームワークを提案する。
最初のMTRフレームワークは、学習可能な意図クエリを備えたトランスフォーマーエンコーダ-デコーダ構造を利用する。
複数のエージェントに対するマルチモーダル動作を同時に予測するMTR++フレームワークを導入する。
論文 参考訳(メタデータ) (2023-06-30T16:23:04Z) - Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
Strategy and Benchmark [49.58762201363483]
本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-05-17T14:14:31Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Trajectory Prediction with Graph-based Dual-scale Context Fusion [43.51107329748957]
本稿では,Dual Scale Predictorというグラフベースの軌道予測ネットワークを提案する。
静的および動的駆動コンテキストを階層的にエンコードする。
提案したデュアルスケールコンテキスト融合ネットワークにより、DSPは正確で人間らしいマルチモーダル軌道を生成することができる。
論文 参考訳(メタデータ) (2021-11-02T13:42:16Z) - RAIN: Reinforced Hybrid Attention Inference Network for Motion
Forecasting [34.54878390622877]
本稿では,ハイブリットアテンション機構に基づく動的キー情報の選択とランク付けを行う汎用的な動き予測フレームワークを提案する。
このフレームワークは、マルチエージェント軌道予測と人間の動き予測タスクを処理するためにインスタンス化される。
我々は,異なる領域における合成シミュレーションと運動予測ベンチマークの両方について,その枠組みを検証した。
論文 参考訳(メタデータ) (2021-08-03T06:30:30Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - What-If Motion Prediction for Autonomous Driving [58.338520347197765]
生存可能なソリューションは、道路レーンのような静的な幾何学的文脈と、複数のアクターから生じる動的な社会的相互作用の両方を考慮しなければならない。
本稿では,解釈可能な幾何学的(アクター・レーン)と社会的(アクター・アクター)の関係を持つグラフに基づく注意的アプローチを提案する。
提案モデルでは,道路レーンやマルチアクターの相互作用を仮定的に,あるいは「何」かで予測できる。
論文 参考訳(メタデータ) (2020-08-24T17:49:30Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。