論文の概要: Dynamic Future Net: Diversified Human Motion Generation
- arxiv url: http://arxiv.org/abs/2009.05109v1
- Date: Tue, 25 Aug 2020 02:31:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 04:08:47.019989
- Title: Dynamic Future Net: Diversified Human Motion Generation
- Title(参考訳): dynamic future net: 多様な人間の動き生成
- Authors: Wenheng Chen, He Wang, Yi Yuan, Tianjia Shao, Kun Zhou
- Abstract要約: 人間のモーションモデリングはコンピュータグラフィックス、視覚、仮想現実など多くの分野で重要である。
我々は,人間の運動力学の本質的な運動性に着目した新しい深層学習モデルであるDynamic Future Netを提案する。
我々のモデルでは、任意の時間で多数の高品質な動きを生成でき、空間と時間の両方の変動を視覚的に解析することができる。
- 参考スコア(独自算出の注目度): 31.987602940970888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion modelling is crucial in many areas such as computer graphics,
vision and virtual reality. Acquiring high-quality skeletal motions is
difficult due to the need for specialized equipment and laborious manual
post-posting, which necessitates maximizing the use of existing data to
synthesize new data. However, it is a challenge due to the intrinsic motion
stochasticity of human motion dynamics, manifested in the short and long terms.
In the short term, there is strong randomness within a couple frames, e.g. one
frame followed by multiple possible frames leading to different motion styles;
while in the long term, there are non-deterministic action transitions. In this
paper, we present Dynamic Future Net, a new deep learning model where we
explicitly focuses on the aforementioned motion stochasticity by constructing a
generative model with non-trivial modelling capacity in temporal stochasticity.
Given limited amounts of data, our model can generate a large number of
high-quality motions with arbitrary duration, and visually-convincing
variations in both space and time. We evaluate our model on a wide range of
motions and compare it with the state-of-the-art methods. Both qualitative and
quantitative results show the superiority of our method, for its robustness,
versatility and high-quality.
- Abstract(参考訳): 人間のモーションモデリングはコンピュータグラフィックス、視覚、仮想現実など多くの分野で重要である。
既存のデータを最大化して新しいデータを合成する必要がある特殊な機器や手動姿勢を必要とするため、高品質な骨格運動の獲得は困難である。
しかし、人間の運動力学の内在的な運動確率性により、短期的・長期的に現れる課題である。
短期的には、2つのフレームの間に強いランダム性があり、例えば、1つのフレームに複数の可能なフレームが続き、異なる動きスタイルに繋がる。
本稿では,時間的確率性において非自明なモデリング能力を持つ生成モデルを構築し,上記の動き確率性に着目した新しい深層学習モデルであるdynamic future netを提案する。
限られた量のデータがあれば、任意の時間で多数の高品質な動きを生成でき、空間と時間の両方で視覚的に拘束できる。
我々は,このモデルを幅広い動作で評価し,最先端の手法と比較した。
質的かつ定量的な結果から,本手法のロバスト性,汎用性,高品質性が得られた。
関連論文リスト
- IMUDiffusion: A Diffusion Model for Multivariate Time Series Synthetisation for Inertial Motion Capturing Systems [0.0]
本稿では,時系列生成に特化して設計された確率的拡散モデルIMUDiffusionを提案する。
提案手法は,人間の活動のダイナミクスを正確に捉えた高品質な時系列列の生成を可能にする。
一部のケースでは、マクロF1スコアを約30%改善することができる。
論文 参考訳(メタデータ) (2024-11-05T09:53:52Z) - Quo Vadis, Motion Generation? From Large Language Models to Large Motion Models [70.78051873517285]
我々は、最初の100万レベルのモーション生成ベンチマークであるMotionBaseを紹介する。
この膨大なデータセットを活用することで、我々の大きな動きモデルは幅広い動きに対して強いパフォーマンスを示す。
動作情報を保存し,コードブックの容量を拡大する,モーショントークン化のための新しい2次元ルックアップフリーアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-04T10:48:54Z) - HUMOS: Human Motion Model Conditioned on Body Shape [54.20419874234214]
身体形状に基づく生成運動モデルを構築するための新しいアプローチを提案する。
非ペアデータを使ってこのモデルをトレーニングすることが可能であることを示す。
得られたモデルは、多種多様で、物理的に妥当で、動的に安定した人間の動きを生成する。
論文 参考訳(メタデータ) (2024-09-05T23:50:57Z) - Motion-Oriented Compositional Neural Radiance Fields for Monocular Dynamic Human Modeling [10.914612535745789]
本稿では,MoCo-NeRF(MoCo-NeRF)について述べる。
MoCo-NeRFはモノクロビデオのフリービューポイントレンダリングを実現するために設計されたフレームワークである。
論文 参考訳(メタデータ) (2024-07-16T17:59:01Z) - Large Motion Model for Unified Multi-Modal Motion Generation [50.56268006354396]
Large Motion Model (LMM) は、動き中心のマルチモーダルフレームワークであり、メインストリームのモーション生成タスクをジェネラリストモデルに統合する。
LMMは3つの原則的な側面からこれらの課題に取り組む。
論文 参考訳(メタデータ) (2024-04-01T17:55:11Z) - DROP: Dynamics Responses from Human Motion Prior and Projective Dynamics [21.00283279991885]
DROPは、生成的mOtionと射影力学を用いた人間のダイナミクス応答をモデリングするための新しいフレームワークである。
様々な動作タスクや様々な物理的摂動にまたがってモデルを広範囲に評価し、応答のスケーラビリティと多様性を実証する。
論文 参考訳(メタデータ) (2023-09-24T20:25:59Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - MoCo-Flow: Neural Motion Consensus Flow for Dynamic Humans in Stationary
Monocular Cameras [98.40768911788854]
4次元連続時間変動関数を用いて動的シーンをモデル化する表現であるMoCo-Flowを紹介する。
私たちの研究の中心には、運動フロー上の運動コンセンサス正規化によって制約される、新しい最適化の定式化がある。
複雑度の異なる人間の動きを含む複数のデータセット上でMoCo-Flowを広範囲に評価した。
論文 参考訳(メタデータ) (2021-06-08T16:03:50Z) - Multi-frame sequence generator of 4D human body motion [0.0]
本稿では,翻訳と回転を含むグローバルな移動をエンコードする自動エンコーダに基づく生成フレームワークと,単一遅延空間ベクトルとしての多フレーム時間運動を提案する。
本研究は,低誤差境界内でのヒト形態素の4次元配列の再構成能力について検証した。
また,最初の人間のフレームから将来のフレームの4次元動作予測を行う手法の利点についても述べる。
論文 参考訳(メタデータ) (2021-06-07T13:56:46Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。