論文の概要: SimpliHuMoN: Simplifying Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2603.04399v1
- Date: Wed, 04 Mar 2026 18:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.466531
- Title: SimpliHuMoN: Simplifying Human Motion Prediction
- Title(参考訳): SimpliHuMoN: 人間の動作予測をシンプルにする
- Authors: Aadya Agrawal, Alexander Schwing,
- Abstract要約: 本研究では,人間動作予測のための簡易かつ効果的なトランスフォーマーモデルを提案する。
このモデルは、ポーズ内の空間的依存関係とモーションシーケンス間の時間的関係を効果的に捉えるために、自己注意モジュールのスタックを使用する。
このシンプルで合理化されたエンドツーエンドモデルは、ポーズのみ、軌道のみ、およびタスク固有の修正なしに複合予測タスクを処理するのに十分な汎用性がある。
- 参考スコア(独自算出の注目度): 46.76089716445981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion prediction combines the tasks of trajectory forecasting and human pose prediction. For each of the two tasks, specialized models have been developed. Combining these models for holistic human motion prediction is non-trivial, and recent methods have struggled to compete on established benchmarks for individual tasks. To address this, we propose a simple yet effective transformer-based model for human motion prediction. The model employs a stack of self-attention modules to effectively capture both spatial dependencies within a pose and temporal relationships across a motion sequence. This simple, streamlined, end-to-end model is sufficiently versatile to handle pose-only, trajectory-only, and combined prediction tasks without task-specific modifications. We demonstrate that this approach achieves state-of-the-art results across all tasks through extensive experiments on a wide range of benchmark datasets, including Human3.6M, AMASS, ETH-UCY, and 3DPW.
- Abstract(参考訳): 人間の動き予測は、軌道予測のタスクと人間のポーズ予測を組み合わせたものである。
2つのタスクそれぞれに対して、特殊なモデルが開発されている。
これらのモデルを総合的な人間の動作予測に組み合わせることは簡単ではなく、最近の手法は個々のタスクの確立したベンチマークと競合するのに苦労している。
そこで本研究では,人間の動作予測のための簡易かつ効果的なトランスフォーマーモデルを提案する。
このモデルは、ポーズ内の空間的依存関係とモーションシーケンス間の時間的関係を効果的に捉えるために、自己注意モジュールのスタックを使用する。
このシンプルで合理化されたエンドツーエンドモデルは、ポーズのみ、軌道のみ、およびタスク固有の修正なしに複合予測タスクを処理するのに十分な汎用性がある。
我々は,Human3.6M,AMASS,ETH-UCY,3DPWなど,幅広いベンチマークデータセットの広範な実験を通じて,全タスクにわたる最先端の結果が得られたことを実証した。
関連論文リスト
- GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - Multi-Transmotion: Pre-trained Model for Human Motion Prediction [68.87010221355223]
マルチトランスモーション(Multi-Transmotion)は、モダリティ事前トレーニング用に設計された革新的なトランスフォーマーベースのモデルである。
提案手法は,下流タスクにおける各種データセット間の競合性能を示す。
論文 参考訳(メタデータ) (2024-11-04T23:15:21Z) - Multi-agent Long-term 3D Human Pose Forecasting via Interaction-aware Trajectory Conditioning [41.09061877498741]
本稿では,対話型トラジェクトリ条件付き長期マルチエージェントヒューマンポーズ予測モデルを提案する。
本モデルは,人間の動作の多モード性と長期多エージェント相互作用の複雑さを効果的に扱う。
論文 参考訳(メタデータ) (2024-04-08T06:15:13Z) - Learning Snippet-to-Motion Progression for Skeleton-based Human Motion
Prediction [14.988322340164391]
人間の動きを予測するために既存のグラフ畳み込みネットワークは、主にワンステップのスキームを採用している。
人間の動きはトランジションパターンを持ち、各トランジションを表すスニペットに分割することができる。
動作予測をサブタスクに分割するスニペット・ツー・モーション・マルチステージ・フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:36:38Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Learning Multiscale Correlations for Human Motion Prediction [10.335804615372629]
本研究では、人体成分間の相関を捕捉する新しいマルチスケールグラフ畳み込みネットワーク(MGCN)を提案する。
ヒューマンモーション予測のための2つの標準ベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-03-19T07:58:16Z) - Multi-grained Trajectory Graph Convolutional Networks for
Habit-unrelated Human Motion Prediction [4.070072825448614]
習慣非関連な人間の運動予測のために, マルチグレイングラフ畳み込みネットワークベースの軽量フレームワークを提案する。
左利きの動作を生成するための新しい動き生成法を提案し,人間の習慣に偏りのない動きをより良くモデル化した。
humantemporal3.6m と cmu mocap を含む挑戦的データセットの実験結果は、提案モデルが0.12倍以下のパラメータで最先端を上回っていることを示している。
論文 参考訳(メタデータ) (2020-12-23T09:41:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。