論文の概要: Stepwise Goal-Driven Networks for Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2103.14107v1
- Date: Thu, 25 Mar 2021 19:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:48:33.536135
- Title: Stepwise Goal-Driven Networks for Trajectory Prediction
- Title(参考訳): 軌道予測のためのステップワイズゴール駆動ネットワーク
- Authors: Chuhua Wang, Yuchen Wang, Mingze Xu, David J. Crandall
- Abstract要約: 観測されたエージェントの将来の軌跡を,複数の時間スケールで推定し,その目標を用いて予測することを提案する。
SGNet(Stepwise Goal-Driven Network)という新しい軌道予測ネットワークを提案する。
特に、フレームワークには、履歴情報をキャプチャするエンコーダモジュール、一連の目標を未来に予測するステップワイズ目標推定モジュール、将来の軌道を予測するデコーダモジュールが組み込まれています。
- 参考スコア(独自算出の注目度): 24.129731432223416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to predict the future trajectories of observed agents (e.g.,
pedestrians or vehicles) by estimating and using their goals at multiple time
scales. We argue that the goal of a moving agent may change over time, and
modeling goals continuously provides more accurate and detailed information for
future trajectory estimation. In this paper, we present a novel recurrent
network for trajectory prediction, called Stepwise Goal-Driven Network (SGNet).
Unlike prior work that models only a single, long-term goal, SGNet estimates
and uses goals at multiple temporal scales. In particular, the framework
incorporates an encoder module that captures historical information, a stepwise
goal estimator that predicts successive goals into the future, and a decoder
module that predicts future trajectory. We evaluate our model on three
first-person traffic datasets (HEV-I, JAAD, and PIE) as well as on two bird's
eye view datasets (ETH and UCY), and show that our model outperforms the
state-of-the-art methods in terms of both average and final displacement errors
on all datasets. Code has been made available at:
https://github.com/ChuhuaW/SGNet.pytorch.
- Abstract(参考訳): 本稿では,複数の時間スケールで目標を推定,利用することにより,観測対象(歩行者や車両など)の今後の軌跡を予測することを提案する。
移動エージェントのゴールは時間とともに変化し、モデリングのゴールは将来の軌道推定のためにより正確で詳細な情報を提供し続ける。
本稿では,stepwise goal-driven network (sgnet) という,軌道予測のための新しいリカレントネットワークを提案する。
単一の長期的な目標のみをモデル化する以前の作業とは異なり、SGNetは複数の時間スケールで目標を見積もり、使用する。
特に、歴史的情報をキャプチャするエンコーダモジュール、未来への連続的な目標を予測する段階的な目標推定器、将来の軌道を予測するデコーダモジュールが組み込まれている。
我々は,HEV-I,JAAD,PIEの3つの1対1のトラフィックデータセットと2つの鳥の目視データセット(ETH,UCY)を用いて評価を行い,そのモデルが全データセットにおける平均および最終変位誤差の両面で最先端の手法より優れていることを示す。
コードはhttps://github.com/chuhuaw/sgnet.pytorchで利用可能である。
関連論文リスト
- A Multi-Stage Goal-Driven Network for Pedestrian Trajectory Prediction [6.137256382926171]
本稿では,多段階目標駆動ネットワーク(MGNet)と呼ばれる,歩行者軌道予測の新しい手法を提案する。
ネットワークは、条件付き変分オートエンコーダ(CVAE)、アテンションモジュール、多段階ゴール評価器の3つの主要コンポーネントから構成される。
MGNetの有効性は、JAADおよびPIEデータセットに関する総合的な実験を通して示される。
論文 参考訳(メタデータ) (2024-06-26T03:59:21Z) - HPNet: Dynamic Trajectory Forecasting with Historical Prediction Attention [76.37139809114274]
HPNetは、新しい動的軌道予測手法である。
逐次予測間の動的関係を自動的に符号化する履歴予測アテンションモジュールを提案する。
私たちのコードはhttps://github.com/XiaolongTang23/HPNetで利用可能です。
論文 参考訳(メタデータ) (2024-04-09T14:42:31Z) - OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - Interpretable Long Term Waypoint-Based Trajectory Prediction Model [1.4778851751964937]
軌道予測フレームワークの性能に長期的目標を加えることが及ぼす影響について検討する。
We present a interpretable long term waypoint-driven prediction framework (WayDCM)。
論文 参考訳(メタデータ) (2023-12-11T09:10:22Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z) - LTN: Long-Term Network for Long-Term Motion Prediction [0.0]
長期ネットワーク(LTN)と呼ばれる長期軌道予測のための2段階フレームワークを提案する。
まず,条件付き変分オートエンコーダ(CVAE)を用いて提案したトラジェクトリの集合を生成し,それらをバイナリラベルで分類し,最も高いスコアでトラジェクトリを出力する。
その結果,提案手法は,長期軌道予測における複数の最先端手法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2020-10-15T17:59:09Z) - Long-Horizon Visual Planning with Goal-Conditioned Hierarchical
Predictors [124.30562402952319]
未来に予測し、計画する能力は、世界で行動するエージェントにとって基本である。
視覚的予測と計画のための現在の学習手法は、長期的タスクでは失敗する。
本稿では,これらの制約を克服可能な視覚的予測と計画のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:58:56Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction [24.855059537779294]
本稿では、新しいエンドツーエンド2段階ネットワーク:spatio--Interactive Network(STINet)を提案する。
歩行者の3次元形状に加えて,歩行者ごとの時間情報をモデル化する。
提案手法は,1段目における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクできるようにする。
論文 参考訳(メタデータ) (2020-05-08T18:43:01Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。