論文の概要: Action2Motion: Conditioned Generation of 3D Human Motions
- arxiv url: http://arxiv.org/abs/2007.15240v1
- Date: Thu, 30 Jul 2020 05:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 14:16:54.527505
- Title: Action2Motion: Conditioned Generation of 3D Human Motions
- Title(参考訳): action2motion: 3次元動作の条件付き生成
- Authors: Chuan Guo, Xinxin Zuo, Sen Wang, Shihao Zou, Qingyao Sun, Annan Deng,
Minglun Gong and Li Cheng
- Abstract要約: 我々は3Dで人間の動作シーケンスを生成することを目的としている。
それぞれのサンプル配列は、自然界の体動力学に忠実に類似している。
新しい3DモーションデータセットであるHumanAct12も構築されている。
- 参考スコア(独自算出の注目度): 28.031644518303075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Action recognition is a relatively established task, where givenan input
sequence of human motion, the goal is to predict its ac-tion category. This
paper, on the other hand, considers a relativelynew problem, which could be
thought of as an inverse of actionrecognition: given a prescribed action type,
we aim to generateplausible human motion sequences in 3D. Importantly, the set
ofgenerated motions are expected to maintain itsdiversityto be ableto explore
the entire action-conditioned motion space; meanwhile,each sampled sequence
faithfully resembles anaturalhuman bodyarticulation dynamics. Motivated by
these objectives, we followthe physics law of human kinematics by adopting the
Lie Algebratheory to represent thenaturalhuman motions; we also propose
atemporal Variational Auto-Encoder (VAE) that encourages adiversesampling of
the motion space. A new 3D human motion dataset, HumanAct12, is also
constructed. Empirical experiments overthree distinct human motion datasets
(including ours) demonstratethe effectiveness of our approach.
- Abstract(参考訳): 行動認識は比較的確立されたタスクであり、人間の動作の入力シーケンスが与えられた場合、そのカテゴリーを予測することが目的である。
一方,本論文では,アクション認識の逆問題と考えられる比較的新しい問題について考察する。
重要なことに、生成した動きの集合は行動条件の運動空間全体を探索できるようにその多様性を維持することが期待されている。
これらの目的により,人間の運動学の物理法則に従い,Lie Algebratheoryを応用して自然運動を表現するとともに,運動空間の分散サンプリングを促進する時変自動エンコーダ(VAE)を提案する。
新しい3DモーションデータセットであるHumanAct12も構築されている。
3つの異なる人間の運動データセット(うちを含む)に対する実証実験により、我々のアプローチの有効性が実証された。
関連論文リスト
- Sitcom-Crafter: A Plot-Driven Human Motion Generation System in 3D Scenes [83.55301458112672]
Sitcom-Crafterは3D空間における人間のモーション生成システムである。
機能生成モジュールの中心は、我々の新しい3Dシーン対応ヒューマン・ヒューマン・インタラクションモジュールである。
拡張モジュールは、コマンド生成のためのプロット理解、異なるモーションタイプのシームレスな統合のためのモーション同期を含む。
論文 参考訳(メタデータ) (2024-10-14T17:56:19Z) - MoManifold: Learning to Measure 3D Human Motion via Decoupled Joint Acceleration Manifolds [20.83684434910106]
我々は、連続した高次元運動空間における可塑性人間の動きをモデル化した、新しい人間の動きであるMoManifoldを提案する。
具体的には、既存の限られた動きデータから人間の力学をモデル化する新しい結合加速法を提案する。
大規模な実験により、MoManifoldはいくつかの下流タスクにおいて既存のSOTAよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-01T15:00:16Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - Action2video: Generating Videos of Human 3D Actions [31.665831044217363]
我々は、所定のアクションカテゴリから多様で自然な人間の動きのビデオを生成するという、興味深いが挑戦的な課題に取り組むことを目的としている。
重要な問題は、視覚的な外観で現実的な複数の異なる動き列を合成する能力にある。
Action2motionallyは、所定のアクションカテゴリのもっともらしい3Dポーズシーケンスを生成し、モーション2ビデオによって処理され、レンダリングされ、2Dビデオを形成する。
論文 参考訳(メタデータ) (2021-11-12T20:20:37Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z) - 3D Human Motion Estimation via Motion Compression and Refinement [27.49664453166726]
我々はRGBビデオシーケンスからスムーズで正確な3次元ポーズとモーション推定を生成する技術を開発した。
本手法は,変動オートエンコーダ(MEVA)による動作推定と呼ばれ,人間の動作の時間的シーケンスをスムーズな動作表現に分解する。
論文 参考訳(メタデータ) (2020-08-09T19:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。