論文の概要: Deep state-space modeling for explainable representation, analysis, and
generation of professional human poses
- arxiv url: http://arxiv.org/abs/2304.14502v1
- Date: Thu, 13 Apr 2023 08:13:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 16:12:03.695425
- Title: Deep state-space modeling for explainable representation, analysis, and
generation of professional human poses
- Title(参考訳): 説明可能な人間のポーズの表現、分析、生成のための深部状態空間モデリング
- Authors: Brenda Elizabeth Olivas-Padilla and Sotiris Manitsaris
- Abstract要約: 本稿では,人間の動作を説明可能な表現にするための3つの新しいアプローチを紹介する。
第1は人間の運動の正確な生成であり、第2は専門的な運動の身体のデキスタリティ分析である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The analysis of human movements has been extensively studied due to its wide
variety of practical applications. Nevertheless, the state-of-the-art still
faces scientific challenges while modeling human movements. Firstly, new models
that account for the stochasticity of human movement and the physical structure
of the human body are required to accurately predict the evolution of full-body
motion descriptors over time. Secondly, the explainability of existing deep
learning algorithms regarding their body posture predictions while generating
human movements still needs to be improved as they lack comprehensible
representations of human movement. This paper addresses these challenges by
introducing three novel approaches for creating explainable representations of
human movement. In this work, full-body movement is formulated as a state-space
model of a dynamic system whose parameters are estimated using deep learning
and statistical algorithms. The representations adhere to the structure of the
Gesture Operational Model (GOM), which describes movement through its spatial
and temporal assumptions. Two approaches correspond to deep state-space models
that apply nonlinear network parameterization to provide interpretable posture
predictions. The third method trains GOM representations using one-shot
training with Kalman Filters. This training strategy enables users to model
single movements and estimate their mathematical representation using
procedures that require less computational power than deep learning algorithms.
Ultimately, two applications of the generated representations are presented.
The first is for the accurate generation of human movements, and the second is
for body dexterity analysis of professional movements, where dynamic
associations between body joints and meaningful motion descriptors are
identified.
- Abstract(参考訳): 人間の運動の分析は、その多種多様な応用のために広く研究されている。
それでも、最先端技術は人間の動きをモデル化しながら科学的課題に直面している。
第一に,人体運動の確率性と身体の物理的構造を考慮した新しいモデルが,身体運動記述子の経時的変化を正確に予測するために求められている。
第2に、既存の深層学習アルゴリズムの身体姿勢予測に関する説明性は、人間の運動の理解可能な表現が欠如しているため、まだ改善される必要がある。
本稿では,人間の動作を説明可能な表現として3つの新しいアプローチを導入することで,これらの課題に対処する。
本研究では,深層学習と統計アルゴリズムを用いてパラメータを推定する動的システムの状態空間モデルとして,全身運動を定式化する。
これらの表現は、その空間的および時間的仮定による動きを記述するジェスチャー操作モデル(gom)の構造に準拠している。
2つのアプローチは、解釈可能な姿勢予測を提供するために非線形ネットワークパラメータ化を適用する深い状態空間モデルに対応する。
第3の方法はカルマンフィルタを用いたワンショットトレーニングを用いてGOM表現を訓練する。
このトレーニング戦略により、ユーザーは1つの動きをモデル化し、深層学習アルゴリズムよりも計算能力の少ない手順を用いて数学的表現を推定できる。
最終的に、生成された表現の2つの応用が提示される。
第1は人間の運動の正確な生成であり、第2は、身体関節と意味のある運動記述子の間の動的関連を識別する専門的な運動の身体のデキスタリティ分析である。
関連論文リスト
- Persistent-Transient Duality: A Multi-mechanism Approach for Modeling
Human-Object Interaction [58.67761673662716]
人間は高度に適応可能で、異なるタスク、状況、状況を扱うために異なるモードを素早く切り替える。
人間と物体の相互作用(HOI)において、これらのモードは、(1)活動全体に対する大規模な一貫した計画、(2)タイムラインに沿って開始・終了する小規模の子どもの対話的行動の2つのメカニズムに起因していると考えられる。
本研究は、人間の動作を協調的に制御する2つの同時メカニズムをモデル化することを提案する。
論文 参考訳(メタデータ) (2023-07-24T12:21:33Z) - Motion Capture Benchmark of Real Industrial Tasks and Traditional Crafts
for Human Movement Analysis [0.0]
本稿では,慣性に基づくモーションキャプチャを用いて記録した7つのデータセットについて述べる。
データセットには、産業従事者や熟練した職人が現場で行うプロのジェスチャーが含まれている。
論文 参考訳(メタデータ) (2023-04-03T10:29:24Z) - Adversarial Attention for Human Motion Synthesis [3.9378507882929563]
本稿では,エンド・ツー・エンドトレーニングを用いた注意型確率的深層対角モデルの適用により,人間の動作合成を制御可能な新しい手法を提案する。
我々は, 対角的注意力を用いて, 短距離地平線と短距離地平線の両面に人工的な人間の動きを生成できることを実証した。
論文 参考訳(メタデータ) (2022-04-25T16:12:42Z) - H4D: Human 4D Modeling by Learning Neural Compositional Representation [75.34798886466311]
この研究は、動的人間に対するコンパクトで構成的な表現を効果的に学習できる新しい枠組みを提示する。
単純で効果的な線形運動モデルを提案し, 粗く規則化された動き推定を行う。
本手法は, 高精度な動作と詳細な形状を持つ動的ヒトの回復に有効であるだけでなく, 様々な4次元人間関連タスクにも有効であることを示す。
論文 参考訳(メタデータ) (2022-03-02T17:10:49Z) - Imposing Temporal Consistency on Deep Monocular Body Shape and Pose
Estimation [67.23327074124855]
本稿では,適合過程における時間的制約の統合に対するエレガントな解法を提案する。
我々は、顎ポーズ、表情、指ポーズを含む人物の形状と動きを表す一連の身体モデルのパラメーターを導出する。
本手法は,表情や手話を含む画像系列からリアルな3次元体モデルの導出を可能にする。
論文 参考訳(メタデータ) (2022-02-07T11:11:55Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Learning Local Recurrent Models for Human Mesh Recovery [50.85467243778406]
本稿では,人間のメッシュを標準的な骨格モデルに従って複数の局所的に分割するビデオメッシュ復元手法を提案する。
次に、各局所部分の力学を別個のリカレントモデルでモデル化し、各モデルは、人体の既知の運動構造に基づいて適切に条件付けする。
これにより、構造的インフォームドな局所的再帰学習アーキテクチャが実現され、アノテーションを使ってエンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-07-27T14:30:33Z) - Improving Human Motion Prediction Through Continual Learning [2.720960618356385]
人間の動作予測は、より緊密な人間とロボットのコラボレーションを可能にするために不可欠な要素である。
人間の運動の変動は、人間のサイズの違いによる骨格レベルと、個々の動きの慣用性による運動レベルの両方で複合される。
本稿では、エンドツーエンドのトレーニングを可能にすると同時に、微調整の柔軟性も備えたモジュール型シーケンス学習手法を提案する。
論文 参考訳(メタデータ) (2021-07-01T15:34:41Z) - Neural Actor: Neural Free-view Synthesis of Human Actors with Pose
Control [80.79820002330457]
任意の視点と任意の制御可能なポーズの下での人間の高品質な合成法を提案する。
提案手法は,新しいポーズ合成法と同様に,再生時の最先端技術よりも優れた品質を実現し,トレーニングポーズと大きく異なる新しいポーズを一般化することができる。
論文 参考訳(メタデータ) (2021-06-03T17:40:48Z) - Modelling Human Kinetics and Kinematics during Walking using
Reinforcement Learning [0.0]
実世界の人間の運動に匹敵する3次元歩行運動をシミュレーションにより自動生成する手法を開発した。
本手法は, 異なる運動構造と歩行特性を持つヒト-サブジェクトをまたいでよく一般化することを示す。
論文 参考訳(メタデータ) (2021-03-15T04:01:20Z) - How Do We Move: Modeling Human Movement with System Dynamics [34.13127840909941]
我々は,ジェネレーティブ・アドバイサル・イミテーション・ラーニングで人間の動きを学習する。
私たちは、移動エージェントの状態遷移をシステムダイナミクスでモデル化することを学びました。
論文 参考訳(メタデータ) (2020-03-01T23:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。