論文の概要: Pedestrian Behavior Prediction via Multitask Learning and Categorical
Interaction Modeling
- arxiv url: http://arxiv.org/abs/2012.03298v1
- Date: Sun, 6 Dec 2020 15:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:54:26.391443
- Title: Pedestrian Behavior Prediction via Multitask Learning and Categorical
Interaction Modeling
- Title(参考訳): マルチタスク学習とカテゴリーインタラクションモデリングによる歩行者行動予測
- Authors: Amir Rasouli and Mohsen Rohani and Jun Luo
- Abstract要約: マルチモーダルデータに頼って歩行者の軌跡や行動を同時に予測するマルチタスク学習フレームワークを提案する。
本モデルでは, トラジェクティブと動作予測を最大22%, 6%向上させる。
- 参考スコア(独自算出の注目度): 13.936894582450734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pedestrian behavior prediction is one of the major challenges for intelligent
driving systems. Pedestrians often exhibit complex behaviors influenced by
various contextual elements. To address this problem, we propose a multitask
learning framework that simultaneously predicts trajectories and actions of
pedestrians by relying on multimodal data. Our method benefits from 1) a hybrid
mechanism to encode different input modalities independently allowing them to
develop their own representations, and jointly to produce a representation for
all modalities using shared parameters; 2) a novel interaction modeling
technique that relies on categorical semantic parsing of the scenes to capture
interactions between target pedestrians and their surroundings; and 3) a dual
prediction mechanism that uses both independent and shared decoding of
multimodal representations. Using public pedestrian behavior benchmark datasets
for driving, PIE and JAAD, we highlight the benefits of multitask learning for
behavior prediction and show that our model achieves state-of-the-art
performance and improves trajectory and action prediction by up to 22% and 6%
respectively. We further investigate the contributions of the proposed
processing and interaction modeling techniques via extensive ablation studies.
- Abstract(参考訳): 歩行者の行動予測はインテリジェント運転システムの大きな課題の1つである。
歩行者はしばしば様々な文脈要素に影響された複雑な行動を示す。
この問題に対処するために,マルチモーダルデータによる歩行者の軌跡や行動の同時予測を行うマルチタスク学習フレームワークを提案する。
Our method benefits from 1) a hybrid mechanism to encode different input modalities independently allowing them to develop their own representations, and jointly to produce a representation for all modalities using shared parameters; 2) a novel interaction modeling technique that relies on categorical semantic parsing of the scenes to capture interactions between target pedestrians and their surroundings; and 3) a dual prediction mechanism that uses both independent and shared decoding of multimodal representations.
PIEとJAADの公共歩行者行動ベンチマークデータセットを用いて、マルチタスク学習による行動予測の利点を強調し、我々のモデルが最先端のパフォーマンスを達成し、軌跡と行動予測を最大22%と6%改善することを示す。
さらに、広範囲なアブレーション研究を通じて、提案した処理および相互作用モデリング技術の貢献について検討する。
関連論文リスト
- DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - PedFormer: Pedestrian Behavior Prediction via Cross-Modal Attention
Modulation and Gated Multitask Learning [10.812772606528172]
本研究では,エゴ中心の視点から,歩行者の将来の軌跡や横断行動を予測するために,異なるデータモダリティに依存する新しい枠組みを提案する。
本モデルでは, トラジェクトリとアクション予測の精度を, それぞれ22%, 13%向上した。
論文 参考訳(メタデータ) (2022-10-14T15:12:00Z) - ProspectNet: Weighted Conditional Attention for Future Interaction
Modeling in Behavior Prediction [5.520507323174275]
本稿では,車両行動の連立学習と連立学習の逐次学習過程として,エンドツーエンドの連立予測問題を定式化する。
本稿では,対話型エージェントペア間の相互影響をモデル化するために,重み付けされた注目スコアを用いた共同学習ブロックであるProspectNetを提案する。
ProspectNetは2つの限界予測のCartesian製品よりも優れており、Interactive Motion Predictionベンチマークで同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2022-08-29T19:29:49Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Learning Modality Interaction for Temporal Sentence Localization and
Event Captioning in Videos [76.21297023629589]
そこで本稿では,ビデオの各対のモダリティの相補的情報をよりよく活用するために,ペアワイズなモダリティ相互作用を学習するための新しい手法を提案する。
提案手法は,4つの標準ベンチマークデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-28T12:40:59Z) - SMART: Simultaneous Multi-Agent Recurrent Trajectory Prediction [72.37440317774556]
本稿では,将来の軌道予測における2つの重要な課題に対処する手法を提案する。
エージェントの数に関係なく、トレーニングデータと予測と一定時間の推測の両方において、マルチモーダリティ。
論文 参考訳(メタデータ) (2020-07-26T08:17:10Z) - EvolveGraph: Multi-Agent Trajectory Prediction with Dynamic Relational
Reasoning [41.42230144157259]
本稿では,関係構造を明示的に認識し,潜在相互作用グラフによる予測を行う汎用軌道予測フレームワークを提案する。
将来の行動の不確実性を考慮すると、モデルはマルチモーダルな予測仮説を提供するように設計されている。
トレーニング効率を向上し、収束を加速するだけでなく、モデル性能も向上する2段トレーニングパイプラインを導入する。
論文 参考訳(メタデータ) (2020-03-31T02:49:23Z) - Collaborative Motion Prediction via Neural Motion Message Passing [37.72454920355321]
我々は,アクター間の対話を明示的にモデル化し,アクター間の対話の表現を学習するために,ニューラルモーションメッセージパッシング(NMMP)を提案する。
提案したNMMPに基づいて,歩行者設定と共同歩行者設定と車両設定の2つの設定に対して,動作予測システムを設計する。
どちらのシステムも、既存のベンチマークで過去の最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-03-14T10:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。