論文の概要: An Attractor-Guided Neural Networks for Skeleton-Based Human Motion
Prediction
- arxiv url: http://arxiv.org/abs/2105.09711v1
- Date: Thu, 20 May 2021 12:51:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:33:38.059106
- Title: An Attractor-Guided Neural Networks for Skeleton-Based Human Motion
Prediction
- Title(参考訳): 人体運動予測のためのトラクター誘導型ニューラルネットワーク
- Authors: Pengxiang Ding and Jianqin Yin
- Abstract要約: 関節モデリングは人間の動作予測におけるキュリアルな要素である。
我々は、時間的特徴からバランスアトラクション(BA)と呼ばれる媒体を学習し、グローバルな動き特徴を特徴づける。
BAを通して、全ての関節は同期的に関連付けられ、したがって全ての関節のグローバルな調整がよりよく学べる。
- 参考スコア(独自算出の注目度): 0.4568777157687961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint relation modeling is a curial component in human motion prediction.
Most existing methods tend to design skeletal-based graphs to build the
relations among joints, where local interactions between joint pairs are well
learned. However, the global coordination of all joints, which reflects human
motion's balance property, is usually weakened because it is learned from part
to whole progressively and asynchronously. Thus, the final predicted motions
are sometimes unnatural. To tackle this issue, we learn a medium, called
balance attractor (BA), from the spatiotemporal features of motion to
characterize the global motion features, which is subsequently used to build
new joint relations. Through the BA, all joints are related synchronously, and
thus the global coordination of all joints can be better learned. Based on the
BA, we propose our framework, referred to Attractor-Guided Neural Network,
mainly including Attractor-Based Joint Relation Extractor (AJRE) and
Multi-timescale Dynamics Extractor (MTDE). The AJRE mainly includes Global
Coordination Extractor (GCE) and Local Interaction Extractor (LIE). The former
presents the global coordination of all joints, and the latter encodes local
interactions between joint pairs. The MTDE is designed to extract dynamic
information from raw position information for effective prediction. Extensive
experiments show that the proposed framework outperforms state-of-the-art
methods in both short and long-term predictions in H3.6M, CMU-Mocap, and 3DPW.
- Abstract(参考訳): 関節関係モデリングは人間の動作予測におけるキュリアルな要素である。
既存の手法のほとんどは、関節間の関係を構築するために骨格ベースのグラフを設計する傾向がある。
しかし、人間の運動のバランス特性を反映した全ての関節のグローバルな協調は、段階的かつ非同期に学習されるため、通常は弱められる。
したがって、最終的な予測運動は時々不自然である。
この問題に取り組むため,我々は,運動の時空間的特徴からバランスアトラクタ(ba)と呼ばれる媒体を学習し,新たな協調関係の構築に使用されるグローバルモーションの特徴を特徴付ける。
baを通して全ての関節は同期的に関連し、したがって全ての関節のグローバルな協調がより良く学習できる。
本稿では,AJRE (Attractor-Based Joint Relation Extractor) とMTDE (Multi-timescale Dynamics Extractor) を含むAttractor-Guided Neural Networkを提案する。
AJREは主にGCE(Global Coordination Extractor)とLIE(Local Interaction Extractor)を含んでいる。
前者はすべてのジョイントのグローバルな協調を示し、後者はジョイントペア間の局所的な相互作用を符号化する。
MTDEは、効率的な予測のために、原位置情報から動的情報を抽出するように設計されている。
大規模な実験の結果,提案手法はH3.6M, CMU-Mocap, 3DPWの短期および長期予測において, 最先端の手法よりも優れていた。
関連論文リスト
- Learning Mutual Excitation for Hand-to-Hand and Human-to-Human
Interaction Recognition [22.538114033191313]
相互励起グラフ畳み込み層を積み重ねた相互励起グラフ畳み込みネットワーク(me-GCN)を提案する。
Me-GCは各レイヤとグラフ畳み込み操作の各ステージで相互情報を学習する。
提案するme-GCは,最先端GCN法およびTransformer法より優れている。
論文 参考訳(メタデータ) (2024-02-04T10:00:00Z) - InterControl: Generate Human Motion Interactions by Controlling Every
Joint [63.76228576042726]
各関節のフレキシブルな空間制御を実現するために,InterControlという新しい手法を提案する。
粗い空間制御信号が与えられたコヒーレントでリアルな動きを生成するために、モーション制御ネットを組み込む。
HumanML3DとKIT-MLデータセットの実験は、多目的関節制御におけるその効果を実証している。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - APGL4SR: A Generic Framework with Adaptive and Personalized Global
Collaborative Information in Sequential Recommendation [86.29366168836141]
逐次推薦のための適応およびパーソナライズされたグラフ学習(APGL4SR)というグラフ駆動型フレームワークを提案する。
APGL4SRは、適応的でパーソナライズされたグローバルな協調情報をシーケンシャルレコメンデーションシステムに組み込む。
一般的なフレームワークとして、APGL4SRは大きなマージンを持つ他のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-11-06T01:33:24Z) - Joint-Relation Transformer for Multi-Person Motion Prediction [79.08243886832601]
相互作用モデリングの強化を目的とした結合関係変換器を提案する。
提案手法は3DPW-SoMoF/RCで900ms VIMを13.4%改善し, 3s MPJPEで17.8%/12.0%改善した。
論文 参考訳(メタデータ) (2023-08-09T09:02:47Z) - Learning Heterogeneous Interaction Strengths by Trajectory Prediction
with Graph Neural Network [0.0]
地中相互作用強度を考慮せずに連続的に重み付けされた相互作用グラフを推定するための注意関係推論ネットワーク(RAIN)を提案する。
本研究では, シミュレーションされた物理系の連続的な相互作用強度を, 教師なしの方法で正確に推定できることを述べる。
論文 参考訳(メタデータ) (2022-08-28T09:13:33Z) - Learning Human Kinematics by Modeling Temporal Correlations between
Joints for Video-based Human Pose Estimation [4.265467042008983]
ビデオから人間のポーズを推定することは、人間とコンピュータの相互作用において重要である。
既存のアプローチのほとんどは、ビデオから時間的特徴を抽出するために光学フロー、RNN、またはCNNを使用している。
本稿では,ドメインクロスアテンション機構に基づくプラグアンドプレイキネマティクスモデリングモジュールを提案する。
論文 参考訳(メタデータ) (2022-07-22T09:37:48Z) - Global-local Motion Transformer for Unsupervised Skeleton-based Action
Learning [23.051184131833292]
骨格運動系列の教師なし学習のための新しいトランスフォーマーモデルを提案する。
提案モデルでは, 関節の局所力学を学習し, 動き列から大域的文脈を捉える。
論文 参考訳(メタデータ) (2022-07-13T10:18:07Z) - Global-and-Local Collaborative Learning for Co-Salient Object Detection [162.62642867056385]
Co-Salient Object Detection (CoSOD)の目標は、2つ以上の関連する画像を含むクエリグループに一般的に現れる有能なオブジェクトを見つけることである。
本稿では,グローバル対応モデリング(GCM)とローカル対応モデリング(LCM)を含む,グローバル・ローカル協調学習アーキテクチャを提案する。
提案したGLNetは3つの一般的なCoSODベンチマークデータセットに基づいて評価され、我々のモデルが小さなデータセット(約3k画像)でトレーニングされた場合、一部の大規模データセット(約8k-200k画像)でトレーニングされた11の最先端の競合製品(約8k-200k画像)を上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-19T14:32:41Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Pose And Joint-Aware Action Recognition [87.4780883700755]
本稿では,まず,共有動作エンコーダを用いて各関節の動作特徴を別々に抽出する,関節に基づく動作認識の新しいモデルを提案する。
私たちのジョイントセレクタモジュールは、そのタスクの最も識別性の高いジョイントを選択するために、ジョイント情報を再重み付けします。
JHMDB, HMDB, Charades, AVA アクション認識データセットにおける最先端のジョイントベースアプローチに対する大きな改善点を示す。
論文 参考訳(メタデータ) (2020-10-16T04:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。