論文の概要: Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing
- arxiv url: http://arxiv.org/abs/2206.15470v1
- Date: Thu, 30 Jun 2022 17:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 15:51:19.054839
- Title: Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing
- Title(参考訳): Dressing Avatars: 物理的にシミュレートされた衣服のための深部フォトリアリスティックな外観
- Authors: Donglai Xiang, Timur Bagautdinov, Tuur Stuyck, Fabian Prada, Javier
Romero, Weipeng Xu, Shunsuke Saito, Jingfan Guo, Breannan Smith, Takaaki
Shiratori, Yaser Sheikh, Jessica Hodgins, Chenglei Wu
- Abstract要約: リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
- 参考スコア(独自算出の注目度): 49.96406805006839
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent progress in developing animatable full-body avatars, realistic
modeling of clothing - one of the core aspects of human self-expression -
remains an open challenge. State-of-the-art physical simulation methods can
generate realistically behaving clothing geometry at interactive rate. Modeling
photorealistic appearance, however, usually requires physically-based rendering
which is too expensive for interactive applications. On the other hand,
data-driven deep appearance models are capable of efficiently producing
realistic appearance, but struggle at synthesizing geometry of highly dynamic
clothing and handling challenging body-clothing configurations. To this end, we
introduce pose-driven avatars with explicit modeling of clothing that exhibit
both realistic clothing dynamics and photorealistic appearance learned from
real-world data. The key idea is to introduce a neural clothing appearance
model that operates on top of explicit geometry: at train time we use
high-fidelity tracking, whereas at animation time we rely on physically
simulated geometry. Our key contribution is a physically-inspired appearance
network, capable of generating photorealistic appearance with view-dependent
and dynamic shadowing effects even for unseen body-clothing configurations. We
conduct a thorough evaluation of our model and demonstrate diverse animation
results on several subjects and different types of clothing. Unlike previous
work on photorealistic full-body avatars, our approach can produce much richer
dynamics and more realistic deformations even for loose clothing. We also
demonstrate that our formulation naturally allows clothing to be used with
avatars of different people while staying fully animatable, thus enabling, for
the first time, photorealistic avatars with novel clothing.
- Abstract(参考訳): アニマタブルフルボディアバターの開発における最近の進歩にもかかわらず、衣服の現実的なモデリング - 人間の自己表現の中核的な側面の1つは、オープンな課題である。
最先端の物理シミュレーション手法は、インタラクティブな速度でリアルに動作可能な衣服形状を生成することができる。
しかし、フォトリアリスティックな外観のモデリングは通常、インタラクティブなアプリケーションには高価すぎる物理ベースのレンダリングを必要とする。
一方、データ駆動の深層外見モデルは、現実的な外観を効率よく生成することができるが、高度にダイナミックな衣服の幾何学を合成し、挑戦的な体装構成を扱うのに苦労している。
そこで本研究では,現実的な衣服の動態と実世界のデータから学習したフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングによるポーズ駆動アバターを提案する。
重要なアイデアは、明示的な幾何学の上に機能するニューラルネットワークの外観モデルを導入することだ。列車では高忠実度追跡を使用し、アニメーション時には物理シミュレーションされた幾何学に依存している。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
本モデルについて徹底的な評価を行い,様々な種類の衣服について多様なアニメーション結果を示す。
これまでのフォトリアリスティックフルボディアバターの研究とは異なり、我々のアプローチはよりリッチなダイナミックスとよりリアルな変形を生み出すことができる。
また,本定式化により,様々な人物のアバターによる衣服の使用が自然に可能となり,かつ完全にアニメーション化され,初めて,新しい衣服を用いたフォトリアリスティックなアバターが実現できることを実証した。
関連論文リスト
- PICA: Physics-Integrated Clothed Avatar [30.277983921620663]
PICAは, 物理学的精度のよい, 高忠実でアニマタブルな人間のアバターを, ゆるやかな衣服でも表現できる新しい表現法である。
提案手法は, 複雑で斬新な運転ポーズにおいて, 人体の高忠実なレンダリングを実現し, 従来手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-07T10:23:21Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - CaPhy: Capturing Physical Properties for Animatable Human Avatars [44.95805736197971]
CaPhyは、服のリアルなダイナミックな特性を持つ、アニマタブルな人間のアバターを再構築する新しい方法である。
本研究の目的は、実際の観測から衣服の幾何学的・物理的特性を捉えることである。
我々は,非教師なしトレーニングと物理に基づく損失と,スキャンデータを用いた3次元教師ありトレーニングを組み合わせて,衣服の動的モデルを構築した。
論文 参考訳(メタデータ) (2023-08-11T04:01:13Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - Garment Avatars: Realistic Cloth Driving using Pattern Registration [39.936812232884954]
衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
ガーメント・アバター(Garment Avatar)は、衣服の表現的かつ完全に駆動可能な幾何学モデルである。
リアルな仮想テレプレゼンスアプリケーションにおけるパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2022-06-07T15:06:55Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Dynamic Neural Garments [45.833166320896716]
本稿では,身体の関節運動を取り込み,リアルな動的衣服画像列を直接生成する解を提案する。
具体的には, アバターの目標関節運動列を考慮し, ダイナミック・ニューラル・ウェアスを提案し, プラウシブル・ダイナミック・ウェアスの外観をシミュレートし, レンダリングする。
論文 参考訳(メタデータ) (2021-02-23T17:21:21Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。