論文の概要: Motion Guided Deep Dynamic 3D Garments
- arxiv url: http://arxiv.org/abs/2209.11449v1
- Date: Fri, 23 Sep 2022 07:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 17:17:54.770063
- Title: Motion Guided Deep Dynamic 3D Garments
- Title(参考訳): 深部動的3次元衣服の動作ガイド
- Authors: Meng Zhang, Duygu Ceylan, Niloy J. Mitra
- Abstract要約: 動作ガイドによるダイナミックな3D衣料、特にゆるい衣料品に焦点をあてる。
データ駆動のセットアップで、我々はまず、可塑性な衣服幾何学の生成空間を学習する。
複数の最先端の代替手段に比較して改善を示す。
- 参考スコア(独自算出の注目度): 45.711340917768766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic dynamic garments on animated characters have many AR/VR
applications. While authoring such dynamic garment geometry is still a
challenging task, data-driven simulation provides an attractive alternative,
especially if it can be controlled simply using the motion of the underlying
character. In this work, we focus on motion guided dynamic 3D garments,
especially for loose garments. In a data-driven setup, we first learn a
generative space of plausible garment geometries. Then, we learn a mapping to
this space to capture the motion dependent dynamic deformations, conditioned on
the previous state of the garment as well as its relative position with respect
to the underlying body. Technically, we model garment dynamics, driven using
the input character motion, by predicting per-frame local displacements in a
canonical state of the garment that is enriched with frame-dependent skinning
weights to bring the garment to the global space. We resolve any remaining
per-frame collisions by predicting residual local displacements. The resultant
garment geometry is used as history to enable iterative rollout prediction. We
demonstrate plausible generalization to unseen body shapes and motion inputs,
and show improvements over multiple state-of-the-art alternatives.
- Abstract(参考訳): アニメーションキャラクターのリアルな動的衣服は多くのAR/VR応用がある。
このような動的幾何形状のオーサリングは依然として困難な作業であるが、データ駆動型シミュレーションは、特に基礎となる文字の動きを使って制御できる場合、魅力的な代替手段を提供する。
本研究では,特にゆるい衣服の動作誘導型動的3d衣服に着目した。
データ駆動のセットアップでは、まず、妥当な衣服ジオメトリの生成空間を学習する。
そして、この空間への写像を学習し、被服の以前の状態と、基礎となる身体に対する相対的な位置を条件に、運動に依存する動的変形を捉える。
技術的には,フレーム依存のスキンウエイトに富んだ衣服の正準状態におけるフレーム毎の局所変位を予測し,入力キャラクタモーションを駆使して衣服のダイナミックスをモデル化した。
残余の局所変位を予測し,残余のフレーム毎の衝突を解消する。
結果として得られた衣服形状は、反復的なロールアウト予測を可能にするために履歴として使用される。
体型や運動入力を知覚できないものに可能な一般化を示し,最先端の代替品に対する改善を示す。
関連論文リスト
- Towards High-Quality 3D Motion Transfer with Realistic Apparel Animation [69.36162784152584]
本研究では,現実的なアパレルアニメーションを用いた高品質な動き伝達を目的とした新しい手法を提案する。
本稿では,2つのニューラル変形モジュールを介し,物体とアパレルの変形を学習するデータ駆動パイプラインを提案する。
本手法は各種アパレルの品質に優れた結果をもたらす。
論文 参考訳(メタデータ) (2024-07-15T22:17:35Z) - PICA: Physics-Integrated Clothed Avatar [30.277983921620663]
PICAは, 物理学的精度のよい, 高忠実でアニマタブルな人間のアバターを, ゆるやかな衣服でも表現できる新しい表現法である。
提案手法は, 複雑で斬新な運転ポーズにおいて, 人体の高忠実なレンダリングを実現し, 従来手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-07T10:23:21Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z) - Dynamic Neural Garments [45.833166320896716]
本稿では,身体の関節運動を取り込み,リアルな動的衣服画像列を直接生成する解を提案する。
具体的には, アバターの目標関節運動列を考慮し, ダイナミック・ニューラル・ウェアスを提案し, プラウシブル・ダイナミック・ウェアスの外観をシミュレートし, レンダリングする。
論文 参考訳(メタデータ) (2021-02-23T17:21:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。