論文の概要: Dynamic Compositional Graph Convolutional Network for Efficient
Composite Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2311.13781v1
- Date: Thu, 23 Nov 2023 02:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 00:46:03.609489
- Title: Dynamic Compositional Graph Convolutional Network for Efficient
Composite Human Motion Prediction
- Title(参考訳): 効率的な複合人体運動予測のための動的構成グラフ畳み込みネットワーク
- Authors: Wanying Zhang, Shen Zhao, Fanyang Meng, Songtao Wu, Mengyuan Liu
- Abstract要約: 本稿では,複合動作予測タスクを提案する。
この課題に対処するために、まず、コンポジットアクション生成(CAG)モジュールを提示する。
次に、動的構成グラフ畳み込みネットワーク(DC-GCN)を提示することで、複合行動が需要に与える影響を緩和する。
- 参考スコア(独自算出の注目度): 16.554998410205055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With potential applications in fields including intelligent surveillance and
human-robot interaction, the human motion prediction task has become a hot
research topic and also has achieved high success, especially using the recent
Graph Convolutional Network (GCN). Current human motion prediction task usually
focuses on predicting human motions for atomic actions. Observing that atomic
actions can happen at the same time and thus formulating the composite actions,
we propose the composite human motion prediction task. To handle this task, we
first present a Composite Action Generation (CAG) module to generate synthetic
composite actions for training, thus avoiding the laborious work of collecting
composite action samples. Moreover, we alleviate the effect of composite
actions on demand for a more complicated model by presenting a Dynamic
Compositional Graph Convolutional Network (DC-GCN). Extensive experiments on
the Human3.6M dataset and our newly collected CHAMP dataset consistently verify
the efficiency of our DC-GCN method, which achieves state-of-the-art motion
prediction accuracies and meanwhile needs few extra computational costs than
traditional GCN-based human motion methods.
- Abstract(参考訳): インテリジェントな監視と人間とロボットのインタラクションを含む分野への潜在的な応用により、人間の動き予測タスクはホットな研究トピックとなり、特に最近のグラフ畳み込みネットワーク(GCN)を用いて高い成功を収めた。
現在の人間の運動予測タスクは、通常、原子の動きの予測に焦点を当てている。
原子の作用が同時に起こり得ることを観察し,その複合作用を定式化することにより,複合人体動作予測タスクを提案する。
この課題に対処するために,まず複合動作生成(cag)モジュールを提示し,訓練用合成複合アクションを生成し,複合アクションサンプル収集の手間を回避する。
さらに,動的構成グラフ畳み込みネットワーク(DC-GCN)を提示することにより,複合動作がより複雑なモデルの需要に与える影響を緩和する。
Human3.6Mデータセットと新たに収集したCHAMPデータセットの大規模な実験により、最新の動き予測精度を実現するDC-GCN法の効率が一貫して検証され、一方、従来のGCNベースの人間の動き法よりも計算コストが少なくなる。
関連論文リスト
- Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Context-based Interpretable Spatio-Temporal Graph Convolutional Network
for Human Motion Forecasting [0.0]
本稿では,効率的な3次元ポーズ予測モデルとしてコンテキスト解釈型時空間グラフネットワーク(IST-GCN)を提案する。
提案アーキテクチャでは,ポーズシーケンスから意味のある情報を抽出し,入力モデルにアグリゲーションとアクセラレーションを集約し,最終的に出力変位を予測する。
論文 参考訳(メタデータ) (2024-02-21T17:51:30Z) - AdvMT: Adversarial Motion Transformer for Long-term Human Motion
Prediction [2.837740438355204]
本稿では,AdvMT(Adversarial Motion Transformer)について述べる。
逆行訓練では,予測の不要な成果物を効果的に削減し,より現実的で流動的な人間の動作の学習を確実にする。
論文 参考訳(メタデータ) (2024-01-10T09:15:50Z) - Enhanced Human-Robot Collaboration using Constrained Probabilistic
Human-Motion Prediction [5.501477817904299]
本研究では,人間の関節の制約とシーンの制約を組み込んだ新しい動き予測フレームワークを提案する。
人間の腕のキネマティックモデルでテストされ、UR5ロボットアームと人間とロボットの協調的な設定で実装されている。
論文 参考訳(メタデータ) (2023-10-05T05:12:14Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Learning Multiscale Correlations for Human Motion Prediction [10.335804615372629]
本研究では、人体成分間の相関を捕捉する新しいマルチスケールグラフ畳み込みネットワーク(MGCN)を提案する。
ヒューマンモーション予測のための2つの標準ベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-03-19T07:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。