論文の概要: UST: Unifying Spatio-Temporal Context for Trajectory Prediction in
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2005.02790v1
- Date: Wed, 6 May 2020 13:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:25:40.517255
- Title: UST: Unifying Spatio-Temporal Context for Trajectory Prediction in
Autonomous Driving
- Title(参考訳): UST: 自律運転における軌道予測のための時空間コンテキストの統合
- Authors: Hao He, Hengchen Dai, Naiyan Wang
- Abstract要約: 時間と空間の次元をモデル化・時間的文脈で等しく扱うための統一的なアプローチを提案する。
提案手法は, 従来の最先端手法より大幅に優れ, 単純さを保ちながら性能が向上することを示す。
- 参考スコア(独自算出の注目度): 20.017491739890588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory prediction has always been a challenging problem for autonomous
driving, since it needs to infer the latent intention from the behaviors and
interactions from traffic participants. This problem is intrinsically hard,
because each participant may behave differently under different environments
and interactions. This key is to effectively model the interlaced influence
from both spatial context and temporal context. Existing work usually encodes
these two types of context separately, which would lead to inferior modeling of
the scenarios. In this paper, we first propose a unified approach to treat time
and space dimensions equally for modeling spatio-temporal context. The proposed
module is simple and easy to implement within several lines of codes. In
contrast to existing methods which heavily rely on recurrent neural network for
temporal context and hand-crafted structure for spatial context, our method
could automatically partition the spatio-temporal space to adapt the data.
Lastly, we test our proposed framework on two recently proposed trajectory
prediction dataset ApolloScape and Argoverse. We show that the proposed method
substantially outperforms the previous state-of-the-art methods while
maintaining its simplicity. These encouraging results further validate the
superiority of our approach.
- Abstract(参考訳): 軌道予測は、交通参加者の行動や相互作用から潜在的な意図を推測する必要があるため、自動運転にとって常に困難な問題である。
それぞれの参加者は異なる環境や相互作用の下で異なる振る舞いをする可能性があるため、この問題は本質的に難しい。
この鍵は、空間的文脈と時間的文脈の両方からの影響を効果的にモデル化することである。
既存の作業は通常、これらの2つのタイプのコンテキストを別々にエンコードします。
本稿では,まず時間次元と空間次元を等しく扱い,時空間的文脈をモデル化する手法を提案する。
提案されたモジュールはシンプルで、数行のコードで簡単に実装できる。
時間的文脈にリカレントニューラルネットワークと空間的文脈に手作り構造を強く依存する既存の手法とは対照的に,本手法は時空間を自動的に分割して適応させることができる。
最後に、最近提案された2つの軌道予測データセットApolloScapeとArgoverseで提案したフレームワークをテストする。
提案手法は,そのシンプルさを維持しつつ,従来の最先端手法を実質的に上回っていることを示す。
これらの奨励的な結果は、我々のアプローチの優位性をさらに検証します。
関連論文リスト
- Linear Attention is Enough in Spatial-Temporal Forecasting [0.0]
本稿では,道路ネットワークにおけるノードを独立した時空間トークンとして扱うことを提案する。
次に、それらをバニラ変換器に入力して、複雑な時空間パターンを学習します。
我々のコードは、手頃な計算コストで最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-08-17T10:06:50Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - Space and Time Continuous Physics Simulation From Partial Observations [0.0]
大規模機械学習に基づくデータ駆動方式は、より直接的かつ効率的に長距離依存関係を統合することにより、高い適応性を約束する。
我々は流体力学に焦点をあて、正規格子や不規則格子の形で計算と予測の固定的サポートに基づく文献の大部分の欠点に対処する。
本研究では,空間的・時間的領域の連続的な領域において,スパース観測を訓練しながら予測を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-17T13:24:04Z) - Domain Knowledge Driven Pseudo Labels for Interpretable Goal-Conditioned
Interactive Trajectory Prediction [29.701029725302586]
目標条件付きフレームワークを用いた共同軌道予測問題について検討する。
本研究では,条件付き変分自動エンコーダ(CVAE)モデルを導入し,異なる相互作用モードを潜在空間に明示的にエンコードする。
KLの消滅を回避する新しい手法を提案し、擬似ラベルを用いた解釈可能な対話型潜在空間を誘導する。
論文 参考訳(メタデータ) (2022-03-28T21:41:21Z) - Averaging Spatio-temporal Signals using Optimal Transport and Soft
Alignments [110.79706180350507]
Fr'teche は双対性を意味し, 時間的バレシェセンタを定義するために提案した損失が有効であることを示す。
手書き文字と脳画像データによる実験は、我々の理論的発見を裏付けるものである。
論文 参考訳(メタデータ) (2022-03-11T09:46:22Z) - Congestion-aware Multi-agent Trajectory Prediction for Collision
Avoidance [110.63037190641414]
渋滞パターンを明示的に学習し、新しい「センス--学習--Reason--予測」フレームワークを考案する。
学習段階を2段階に分解することで、「学生」は「教師」から文脈的手がかりを学習し、衝突のない軌跡を生成する。
実験では,提案モデルが合成データセットにおいて衝突のない軌道予測を生成できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T02:42:33Z) - Temporal Context Aggregation Network for Temporal Action Proposal
Refinement [93.03730692520999]
時間的行動提案生成はビデオ理解分野において難しいが重要な課題である。
現在の方法はまだ不正確な時間境界と検索に使用される劣った自信に苦しんでいます。
TCANet は、「ローカルおよびグローバル」な時間的コンテキストアグリゲーションを通じて、高品質のアクション提案を生成するために提案します。
論文 参考訳(メタデータ) (2021-03-24T12:34:49Z) - Exploring Dynamic Context for Multi-path Trajectory Prediction [33.66335553588001]
動的コンテキストネットワーク(DCENet)という新しいフレームワークを提案する。
本フレームワークでは,エージェント間の空間的コンテキストを自己注意型アーキテクチャを用いて探索する。
学習した空間的時間的文脈に基づいて、各エージェントに対する将来の軌跡のセットを条件付きで予測する。
論文 参考訳(メタデータ) (2020-10-30T13:39:20Z) - SSP: Single Shot Future Trajectory Prediction [26.18589883075203]
我々は,高度に混雑した環境下で自律的なエージェントに適用可能な,将来の軌道予測に対する堅牢な解を提案する。
まず, 複合場を用いて, 全道路エージェントの位置を単発で予測し, 一定の時間で予測する。
第二に、エージェント間の相互作用は非局所的な応答としてモデル化され、異なる場所間の空間的関係を時間的に捉えることができる。
第3に、シーンの意味的コンテキストをモデル化し、将来の動きに影響を与える可能性のある環境制約を考慮に入れます。
論文 参考訳(メタデータ) (2020-04-13T09:56:38Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。