論文の概要: Efficient Multi-Person Motion Prediction by Lightweight Spatial and Temporal Interactions
- arxiv url: http://arxiv.org/abs/2507.09446v1
- Date: Sun, 13 Jul 2025 02:16:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.260091
- Title: Efficient Multi-Person Motion Prediction by Lightweight Spatial and Temporal Interactions
- Title(参考訳): 軽量空間・時間相互作用による多人数動作予測
- Authors: Yuanhong Zheng, Ruixuan Yu, Jian Sun,
- Abstract要約: 空間的・時間的相互作用を単純化し,多人数動作予測のための計算効率の良いモデルを提案する。
CMU-Mocap, MuPoTS-3D, 3DPW の標準データセット上で, マルチメトリックの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 45.51160285910023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D multi-person motion prediction is a highly complex task, primarily due to the dependencies on both individual past movements and the interactions between agents. Moreover, effectively modeling these interactions often incurs substantial computational costs. In this work, we propose a computationally efficient model for multi-person motion prediction by simplifying spatial and temporal interactions. Our approach begins with the design of lightweight dual branches that learn local and global representations for individual and multiple persons separately. Additionally, we introduce a novel cross-level interaction block to integrate the spatial and temporal representations from both branches. To further enhance interaction modeling, we explicitly incorporate the spatial inter-person distance embedding. With above efficient temporal and spatial design, we achieve state-of-the-art performance for multiple metrics on standard datasets of CMU-Mocap, MuPoTS-3D, and 3DPW, while significantly reducing the computational cost. Code is available at https://github.com/Yuanhong-Zheng/EMPMP.
- Abstract(参考訳): 3次元多対人動作予測は、主に過去の個人の動きとエージェント間の相互作用に依存するため、非常に複雑なタスクである。
さらに、これらの相互作用を効果的にモデル化することは、しばしばかなりの計算コストを発生させる。
本研究では,空間的・時間的相互作用を単純化し,多人数動作予測のための計算効率の良いモデルを提案する。
我々のアプローチは、個人と複数人の局所的およびグローバルな表現を別々に学習する軽量な二重分枝の設計から始まります。
さらに,両枝の空間的および時間的表現を統合するために,新しいクロスレベル相互作用ブロックを導入する。
インタラクションモデリングをさらに強化するために、空間的対人距離埋め込みを明示的に取り入れる。
CMU-Mocap, MuPoTS-3D, 3DPWの標準データセット上で, 時間的, 空間的, 時間的, 時間的, 時間的, 空間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的, 時間的、
コードはhttps://github.com/Yuanhong-Zheng/EMPMPで入手できる。
関連論文リスト
- Relation Learning and Aggregate-attention for Multi-person Motion Prediction [13.052342503276936]
多対人動作予測は、骨格構造や人間の軌道だけでなく、他者との相互作用も考慮している。
それまでの手法では、個人内の結合関係(イントラリレーション)とグループ間の相互作用(インターリレーション)は異なる種類の表現であるとしばしば見落としていた。
我々はこれらの関係を明示的にモデル化する多人数動作予測のための新しい協調フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-06T07:48:30Z) - Sports-Traj: A Unified Trajectory Generation Model for Multi-Agent Movement in Sports [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを紹介する。
バスケットボールU,サッカーU,サッカーUの3つの実践的スポーツデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Multi-agent Long-term 3D Human Pose Forecasting via Interaction-aware Trajectory Conditioning [41.09061877498741]
本稿では,対話型トラジェクトリ条件付き長期マルチエージェントヒューマンポーズ予測モデルを提案する。
本モデルは,人間の動作の多モード性と長期多エージェント相互作用の複雑さを効果的に扱う。
論文 参考訳(メタデータ) (2024-04-08T06:15:13Z) - A Decoupled Spatio-Temporal Framework for Skeleton-based Action
Segmentation [89.86345494602642]
既存の手法は、弱い時間的モデリング能力に制限されている。
この問題に対処するために、Decoupled Scoupled Framework (DeST)を提案する。
DeSTは計算量が少なく、現在の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-10T09:11:39Z) - PGformer: Proxy-Bridged Game Transformer for Multi-Person Highly
Interactive Extreme Motion Prediction [22.209454616479505]
本稿では,極端な動きを持つ複数人の協調動作予測に焦点をあてる。
プロキシユニットを導入して,提案したXQAモジュールと連携する関係者をブリッジする。
我々のアプローチは、弱い相互作用を持つCMU-MocapとMuPoTS-3Dデータセットとも互換性がある。
論文 参考訳(メタデータ) (2023-06-06T03:25:09Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Interaction Transformer for Human Reaction Generation [61.22481606720487]
本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-07-04T19:30:41Z) - Dynamic and Static Context-aware LSTM for Multi-agent Motion Prediction [40.20696709103593]
本稿では,動的および静的な文脈認識型動作予測器(DSCMP)の新たな機構であるtextiti.e.を設計する。
豊富な情報をLong-Short-term-Memory (LSTM)に統合する。
エージェント間の動的相互作用を、空間的位置と時間的コヒーレンスの両方を学ぶことによってモデル化する。
潜在変数を推論することでシーンのコンテキストをキャプチャし、意味のあるセマンティックなシーンレイアウトを持つマルチモーダルな予測を可能にする。
論文 参考訳(メタデータ) (2020-08-03T11:03:57Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。