論文の概要: Dynamic Neural Garments
- arxiv url: http://arxiv.org/abs/2102.11811v1
- Date: Tue, 23 Feb 2021 17:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 13:58:34.732790
- Title: Dynamic Neural Garments
- Title(参考訳): 動的神経衣料品
- Authors: Meng Zhang, Duygu Ceylan, Tuanfeng Wang, Niloy J. Mitra
- Abstract要約: 本稿では,身体の関節運動を取り込み,リアルな動的衣服画像列を直接生成する解を提案する。
具体的には, アバターの目標関節運動列を考慮し, ダイナミック・ニューラル・ウェアスを提案し, プラウシブル・ダイナミック・ウェアスの外観をシミュレートし, レンダリングする。
- 参考スコア(独自算出の注目度): 45.833166320896716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A vital task of the wider digital human effort is the creation of realistic
garments on digital avatars, both in the form of characteristic fold patterns
and wrinkles in static frames as well as richness of garment dynamics under
avatars' motion. Existing workflow of modeling, simulation, and rendering
closely replicates the physics behind real garments, but is tedious and
requires repeating most of the workflow under changes to characters' motion,
camera angle, or garment resizing. Although data-driven solutions exist, they
either focus on static scenarios or only handle dynamics of tight garments. We
present a solution that, at test time, takes in body joint motion to directly
produce realistic dynamic garment image sequences. Specifically, given the
target joint motion sequence of an avatar, we propose dynamic neural garments
to jointly simulate and render plausible dynamic garment appearance from an
unseen viewpoint. Technically, our solution generates a coarse garment proxy
sequence, learns deep dynamic features attached to this template, and neurally
renders the features to produce appearance changes such as folds, wrinkles, and
silhouettes. We demonstrate generalization behavior to both unseen motion and
unseen camera views. Further, our network can be fine-tuned to adopt to new
body shape and/or background images. We also provide comparisons against
existing neural rendering and image sequence translation approaches, and report
clear quantitative improvements.
- Abstract(参考訳): より広いデジタル人間の努力の重要なタスクは、デジタルアバター上の現実的な衣服の作成であり、アバターの動き下での衣服のダイナミクスの豊かさと同様に、静的フレームの特徴的な折り畳みパターンとしわの形態の両方である。
既存のモデリング、シミュレーション、レンダリングのワークフローは、実際の衣服の背後にある物理を忠実に再現するが、面倒であり、キャラクターの動き、カメラアングル、衣服のリサイズの変更の下で、ほとんどのワークフローを繰り返す必要がある。
データ駆動のソリューションは存在するが、静的なシナリオにフォーカスするか、タイトな衣服のダイナミクスのみを扱う。
テスト時に、身体の関節運動を利用して、リアルな動的衣服画像シーケンスを直接生成するソリューションを提示します。
具体的には, アバターの標的関節運動シーケンスを考慮し, 目立たない視点から, 実用的な動的衣服の外観を協調的にシミュレートし, レンダリングするダイナミックニューラルウェアを提案する。
技術的には、私たちのソリューションは粗い衣服のプロキシシーケンスを生成し、このテンプレートに添付された深い動的特徴を学び、神経的に特徴をレンダリングして、折り目、しわ、シルエットなどの外観変化を生成します。
我々は、見えない動きと見えないカメラビューの両方に一般化挙動を示す。
さらに、ネットワークを微調整して、新しい体型や背景画像を採用することもできる。
また,既存のニューラルレンダリング法と画像シーケンス変換法との比較を行い,定量的な改善を報告した。
関連論文リスト
- Garment Animation NeRF with Color Editing [6.357662418254495]
そこで本稿では, 明示的な衣料プロキシを必要とせずに, 身体動作系列から衣料アニメーションを合成する手法を提案する。
本手法は, 体の動きから衣服の動的特徴を推定し, 衣服構造を概観する。
身体の動きやカメラの視界にまたがる手法の一般化性を実証し、詳細な構造的整合性を確保する。
論文 参考訳(メタデータ) (2024-07-29T08:17:05Z) - PICA: Physics-Integrated Clothed Avatar [30.277983921620663]
PICAは, 物理学的精度のよい, 高忠実でアニマタブルな人間のアバターを, ゆるやかな衣服でも表現できる新しい表現法である。
提案手法は, 複雑で斬新な運転ポーズにおいて, 人体の高忠実なレンダリングを実現し, 従来手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-07T10:23:21Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Motion Guided Deep Dynamic 3D Garments [45.711340917768766]
動作ガイドによるダイナミックな3D衣料、特にゆるい衣料品に焦点をあてる。
データ駆動のセットアップで、我々はまず、可塑性な衣服幾何学の生成空間を学習する。
複数の最先端の代替手段に比較して改善を示す。
論文 参考訳(メタデータ) (2022-09-23T07:17:46Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - Learning Motion-Dependent Appearance for High-Fidelity Rendering of
Dynamic Humans from a Single Camera [49.357174195542854]
外観のダイナミクスを学ぶ上で重要な課題は、違法に大量の観測を必要とすることである。
本手法は,1つの視点映像から,身体のポーズや新しいビューを時間的に協調的に生成できることを示す。
論文 参考訳(メタデータ) (2022-03-24T00:22:03Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。