論文の概要: DiffAvatar: Simulation-Ready Garment Optimization with Differentiable
Simulation
- arxiv url: http://arxiv.org/abs/2311.12194v1
- Date: Mon, 20 Nov 2023 21:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 02:58:22.573892
- Title: DiffAvatar: Simulation-Ready Garment Optimization with Differentiable
Simulation
- Title(参考訳): diffavatar: 微分可能なシミュレーションによる衣服最適化
- Authors: Yifei Li, Hsiao-yu Chen, Egor Larionov, Nikolaos Sarafianos, Wojciech
Matusik, Tuur Stuyck
- Abstract要約: DiffAvatarは,身体と衣服の共最適化を行う新しい手法である。
提案手法は,下流で容易に使用可能なリアルな衣服や体型を創出することを示す。
- 参考スコア(独自算出の注目度): 29.196313761540218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The realism of digital avatars is crucial in enabling telepresence
applications with self-expression and customization. A key aspect of this
realism originates from the physical accuracy of both a true-to-life body shape
and clothing. While physical simulations can produce high-quality, realistic
motions for clothed humans, they require precise estimation of body shape and
high-quality garment assets with associated physical parameters for cloth
simulations. However, manually creating these assets and calibrating their
parameters is labor-intensive and requires specialized expertise. To address
this gap, we propose DiffAvatar, a novel approach that performs body and
garment co-optimization using differentiable simulation. By integrating
physical simulation into the optimization loop and accounting for the complex
nonlinear behavior of cloth and its intricate interaction with the body, our
framework recovers body and garment geometry and extracts important material
parameters in a physically plausible way. Our experiments demonstrate that our
approach generates realistic clothing and body shape that can be easily used in
downstream applications.
- Abstract(参考訳): デジタルアバターのリアリズムは、自己表現とカスタマイズを備えたテレプレゼンスアプリケーションの実現に不可欠である。
このリアリズムの重要な側面は、本物の身体の形と衣服の両方の物理的正確さに由来する。
物理シミュレーションは, 高品質でリアルな動作を創出するが, 布のシミュレーションには, 身体形状や衣服の質を正確に推定する必要がある。
しかし、手動でこれらの資産を作成し、パラメータを校正することは労働集約的であり、専門的な専門知識を必要とする。
このギャップに対処するために、微分可能シミュレーションを用いて身体と衣服の共最適化を行う新しいアプローチであるDiffAvatarを提案する。
物理シミュレーションを最適化ループに統合し,布の複雑な非線形挙動と身体との複雑な相互作用を考慮し,身体と衣服の形状を復元し,物理的に妥当な方法で重要な材料パラメータを抽出する。
実験では,下流のアプリケーションで容易に使用可能な衣服や体型を現実的に生成できることを実証した。
関連論文リスト
- AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - DiffuseBot: Breeding Soft Robots With Physics-Augmented Generative
Diffusion Models [102.13968267347553]
本稿では,様々なタスクにおいて優れたソフトロボット形態を生成する物理拡張拡散モデルであるDiffuseBotを提案する。
我々は、その能力とともに、シミュレーションされた、そして製造された様々なロボットを紹介します。
論文 参考訳(メタデータ) (2023-11-28T18:58:48Z) - CaPhy: Capturing Physical Properties for Animatable Human Avatars [44.95805736197971]
CaPhyは、服のリアルなダイナミックな特性を持つ、アニマタブルな人間のアバターを再構築する新しい方法である。
本研究の目的は、実際の観測から衣服の幾何学的・物理的特性を捉えることである。
我々は,非教師なしトレーニングと物理に基づく損失と,スキャンデータを用いた3次元教師ありトレーニングを組み合わせて,衣服の動的モデルを構築した。
論文 参考訳(メタデータ) (2023-08-11T04:01:13Z) - Near-realtime Facial Animation by Deep 3D Simulation Super-Resolution [7.14576106770047]
本稿では,低コストでリアルタイムな物理シミュレーションによって生み出す顔のパフォーマンスを効率よく,現実的に向上させるニューラルネットワークに基づくシミュレーションフレームワークを提案する。
顔のアニメーションをこのようなシミュレーション領域の例に用いて,2つのシミュレータで同じ筋の運動制御と骨格のポーズを単純にダイヤルすることで,この意味の一致を創り出すことができる。
提案するニューラルネットワーク超解像フレームワークは,このトレーニングセットから未確認表現を一般化し,リアルタイム変種における解像度の制限やコスト削減近似による2つのシミュレーション間の不一致をモデル化するための補償を行うとともに,意味記述子やパラメータを必要としない。
論文 参考訳(メタデータ) (2023-05-05T00:09:24Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - Garment Avatars: Realistic Cloth Driving using Pattern Registration [39.936812232884954]
衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
ガーメント・アバター(Garment Avatar)は、衣服の表現的かつ完全に駆動可能な幾何学モデルである。
リアルな仮想テレプレゼンスアプリケーションにおけるパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2022-06-07T15:06:55Z) - Differentiable Dynamics for Articulated 3d Human Motion Reconstruction [29.683633237503116]
DiffPhyは、映像から3次元の人間の動きを再現する物理モデルである。
モノクロ映像から物理的に可視な3次元動作を正確に再現できることを実証し,本モデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-05-24T17:58:37Z) - Imposing Temporal Consistency on Deep Monocular Body Shape and Pose
Estimation [67.23327074124855]
本稿では,適合過程における時間的制約の統合に対するエレガントな解法を提案する。
我々は、顎ポーズ、表情、指ポーズを含む人物の形状と動きを表す一連の身体モデルのパラメーターを導出する。
本手法は,表情や手話を含む画像系列からリアルな3次元体モデルの導出を可能にする。
論文 参考訳(メタデータ) (2022-02-07T11:11:55Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - Cloth in the Wind: A Case Study of Physical Measurement through
Simulation [50.31424339972478]
実例を一度も見ずに風中の布の潜伏物性を測定することを提案する。
私たちのソリューションは、シミュレーションをコアとした反復的な洗練手順です。
この対応は、物理的に類似した例を近くの点にマッピングする埋め込み関数を用いて測定される。
論文 参考訳(メタデータ) (2020-03-09T21:32:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。