論文の概要: Multi-agent Long-term 3D Human Pose Forecasting via Interaction-aware Trajectory Conditioning
- arxiv url: http://arxiv.org/abs/2404.05218v1
- Date: Mon, 8 Apr 2024 06:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 18:41:48.775433
- Title: Multi-agent Long-term 3D Human Pose Forecasting via Interaction-aware Trajectory Conditioning
- Title(参考訳): 相互作用認識軌道条件による複数エージェントの長期3次元人物予測
- Authors: Jaewoo Jeong, Daehee Park, Kuk-Jin Yoon,
- Abstract要約: 本稿では,対話型トラジェクトリ条件付き長期マルチエージェントヒューマンポーズ予測モデルを提案する。
本モデルは,人間の動作の多モード性と長期多エージェント相互作用の複雑さを効果的に扱う。
- 参考スコア(独自算出の注目度): 41.09061877498741
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human pose forecasting garners attention for its diverse applications. However, challenges in modeling the multi-modal nature of human motion and intricate interactions among agents persist, particularly with longer timescales and more agents. In this paper, we propose an interaction-aware trajectory-conditioned long-term multi-agent human pose forecasting model, utilizing a coarse-to-fine prediction approach: multi-modal global trajectories are initially forecasted, followed by respective local pose forecasts conditioned on each mode. In doing so, our Trajectory2Pose model introduces a graph-based agent-wise interaction module for a reciprocal forecast of local motion-conditioned global trajectory and trajectory-conditioned local pose. Our model effectively handles the multi-modality of human motion and the complexity of long-term multi-agent interactions, improving performance in complex environments. Furthermore, we address the lack of long-term (6s+) multi-agent (5+) datasets by constructing a new dataset from real-world images and 2D annotations, enabling a comprehensive evaluation of our proposed model. State-of-the-art prediction performance on both complex and simpler datasets confirms the generalized effectiveness of our method. The code is available at https://github.com/Jaewoo97/T2P.
- Abstract(参考訳): 人間は多様な用途に注意を喚起します。
しかし、人間の動作とエージェント間の複雑な相互作用のマルチモーダルな性質をモデル化する上での課題は、特により長い時間スケールとより多くのエージェントで持続する。
本稿では,多モードグローバルな軌跡をまず予測し,その後各モードで各局所的なポーズ予測を行う,粗大な予測手法を応用した,対話型トラジェクトリを考慮した長期マルチエージェントのポーズ予測モデルを提案する。
そこでTrajectory2Poseモデルでは,局所運動条件のグローバルな軌跡と軌道条件の局所的なポーズの相互予測のためのグラフベースのエージェント・ワイズ・インタラクション・モジュールを導入している。
本モデルは,人間の動作の多モード性と長期多エージェント相互作用の複雑さを効果的に処理し,複雑な環境における性能を向上させる。
さらに、実世界の画像と2Dアノテーションから新しいデータセットを構築することで、長期(6s+)マルチエージェント(5+)データセットの欠如に対処し、提案モデルの包括的な評価を可能にする。
複雑なデータセットと単純なデータセットの両方における最先端予測性能は,本手法の一般化の有効性を裏付けるものである。
コードはhttps://github.com/Jaewoo97/T2Pで公開されている。
関連論文リスト
- MotionLM: Multi-Agent Motion Forecasting as Language Modeling [15.317827804763699]
マルチエージェント動作予測のための言語モデルであるMotionLMを提案する。
本手法は,対話的なスコアリングに先立って個々のエージェントの軌道生成を行う,ポストホック相互作用をバイパスする。
モデルの逐次分解は、時間的因果条件のロールアウトを可能にする。
論文 参考訳(メタデータ) (2023-09-28T15:46:25Z) - Stochastic Multi-Person 3D Motion Forecasting [21.915057426589744]
我々は、人間の動き予測に先立つ作業において、無視された現実世界の複雑さに対処する。
私たちのフレームワークは一般的なもので、異なる生成モデルでインスタンス化します。
このアプローチは多種多人数の予測を多種多様な精度で生成し,技術水準を著しく上回っている。
論文 参考訳(メタデータ) (2023-06-08T17:59:09Z) - PGformer: Proxy-Bridged Game Transformer for Multi-Person Highly
Interactive Extreme Motion Prediction [22.209454616479505]
本稿では,極端な動きを持つ複数人の協調動作予測に焦点をあてる。
プロキシユニットを導入して,提案したXQAモジュールと連携する関係者をブリッジする。
我々のアプローチは、弱い相互作用を持つCMU-MocapとMuPoTS-3Dデータセットとも互換性がある。
論文 参考訳(メタデータ) (2023-06-06T03:25:09Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - JFP: Joint Future Prediction with Interactive Multi-Agent Modeling for
Autonomous Driving [12.460224193998362]
構造化されたグラフィカルモデルの定式化において,エージェント同士の相互作用を直接学習するエンド・ツー・エンドのトレーニング可能なモデルを提案する。
提案手法は,単エージェントトラジェクタのトラジェクタとトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタのトラジェクタの性能を向上する。
論文 参考訳(メタデータ) (2022-12-16T20:59:21Z) - Continuous-Time and Multi-Level Graph Representation Learning for
Origin-Destination Demand Prediction [52.0977259978343]
本稿では,原位置需要予測(CMOD)のための連続時間および多段階動的グラフ表現学習法を提案する。
状態ベクトルは、過去のトランザクション情報を保持し、最近発生したトランザクションに従って継続的に更新される。
北京地下鉄とニューヨークタクシーの2つの実世界のデータセットを用いて実験を行い、そのモデルが最先端のアプローチに対して優れていることを実証した。
論文 参考訳(メタデータ) (2022-06-30T03:37:50Z) - MUSE-VAE: Multi-Scale VAE for Environment-Aware Long Term Trajectory
Prediction [28.438787700968703]
条件付きMUSEは、現在の最先端技術と比較して、多様かつ同時に正確な予測を提供する。
我々は、新しい合成データセットであるPFSDと同様に、nuScenesとSDDベンチマークに関する包括的な実験を通してこれらのアサーションを実証する。
論文 参考訳(メタデータ) (2022-01-18T18:40:03Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - SMART: Simultaneous Multi-Agent Recurrent Trajectory Prediction [72.37440317774556]
本稿では,将来の軌道予測における2つの重要な課題に対処する手法を提案する。
エージェントの数に関係なく、トレーニングデータと予測と一定時間の推測の両方において、マルチモーダリティ。
論文 参考訳(メタデータ) (2020-07-26T08:17:10Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。