論文の概要: DiffAvatar: Simulation-Ready Garment Optimization with Differentiable
Simulation
- arxiv url: http://arxiv.org/abs/2311.12194v1
- Date: Mon, 20 Nov 2023 21:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 02:58:22.573892
- Title: DiffAvatar: Simulation-Ready Garment Optimization with Differentiable
Simulation
- Title(参考訳): diffavatar: 微分可能なシミュレーションによる衣服最適化
- Authors: Yifei Li, Hsiao-yu Chen, Egor Larionov, Nikolaos Sarafianos, Wojciech
Matusik, Tuur Stuyck
- Abstract要約: DiffAvatarは,身体と衣服の共最適化を行う新しい手法である。
提案手法は,下流で容易に使用可能なリアルな衣服や体型を創出することを示す。
- 参考スコア(独自算出の注目度): 29.196313761540218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The realism of digital avatars is crucial in enabling telepresence
applications with self-expression and customization. A key aspect of this
realism originates from the physical accuracy of both a true-to-life body shape
and clothing. While physical simulations can produce high-quality, realistic
motions for clothed humans, they require precise estimation of body shape and
high-quality garment assets with associated physical parameters for cloth
simulations. However, manually creating these assets and calibrating their
parameters is labor-intensive and requires specialized expertise. To address
this gap, we propose DiffAvatar, a novel approach that performs body and
garment co-optimization using differentiable simulation. By integrating
physical simulation into the optimization loop and accounting for the complex
nonlinear behavior of cloth and its intricate interaction with the body, our
framework recovers body and garment geometry and extracts important material
parameters in a physically plausible way. Our experiments demonstrate that our
approach generates realistic clothing and body shape that can be easily used in
downstream applications.
- Abstract(参考訳): デジタルアバターのリアリズムは、自己表現とカスタマイズを備えたテレプレゼンスアプリケーションの実現に不可欠である。
このリアリズムの重要な側面は、本物の身体の形と衣服の両方の物理的正確さに由来する。
物理シミュレーションは, 高品質でリアルな動作を創出するが, 布のシミュレーションには, 身体形状や衣服の質を正確に推定する必要がある。
しかし、手動でこれらの資産を作成し、パラメータを校正することは労働集約的であり、専門的な専門知識を必要とする。
このギャップに対処するために、微分可能シミュレーションを用いて身体と衣服の共最適化を行う新しいアプローチであるDiffAvatarを提案する。
物理シミュレーションを最適化ループに統合し,布の複雑な非線形挙動と身体との複雑な相互作用を考慮し,身体と衣服の形状を復元し,物理的に妥当な方法で重要な材料パラメータを抽出する。
実験では,下流のアプリケーションで容易に使用可能な衣服や体型を現実的に生成できることを実証した。
関連論文リスト
- A Physics-embedded Deep Learning Framework for Cloth Simulation [6.8806198396336935]
本稿では,布地シミュレーションの物理特性を直接エンコードする物理組込み学習フレームワークを提案する。
このフレームワークは、従来のシミュレータやサブニューラルネットワークを通じて、外部の力や衝突処理と統合することもできる。
論文 参考訳(メタデータ) (2024-03-19T15:21:00Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - DiffuseBot: Breeding Soft Robots With Physics-Augmented Generative
Diffusion Models [102.13968267347553]
本稿では,様々なタスクにおいて優れたソフトロボット形態を生成する物理拡張拡散モデルであるDiffuseBotを提案する。
我々は、その能力とともに、シミュレーションされた、そして製造された様々なロボットを紹介します。
論文 参考訳(メタデータ) (2023-11-28T18:58:48Z) - Benchmarking the Sim-to-Real Gap in Cloth Manipulation [10.530012817995656]
布の操作におけるシム・トゥ・リアルギャップを評価するためのベンチマークデータセットを提案する。
このデータセットを用いて、一般的な4つの変形可能なオブジェクトシミュレータの現実的ギャップ、計算時間、安定性を評価する。
論文 参考訳(メタデータ) (2023-10-14T09:36:01Z) - Towards Multi-Layered 3D Garments Animation [135.77656965678196]
既存のアプローチは主に、人間の体だけによって駆動される単層衣服に焦点を合わせ、一般的なシナリオを扱うのに苦労している。
本研究では,マイクロ物理システムにおける粒子間相互作用として,衣服レベルのアニメーションをモデル化するための新しいデータ駆動手法であるLayersNetを提案する。
実験の結果,LayersNetは定量的にも定性的にも優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:53:04Z) - Near-realtime Facial Animation by Deep 3D Simulation Super-Resolution [7.14576106770047]
本稿では,低コストでリアルタイムな物理シミュレーションによって生み出す顔のパフォーマンスを効率よく,現実的に向上させるニューラルネットワークに基づくシミュレーションフレームワークを提案する。
顔のアニメーションをこのようなシミュレーション領域の例に用いて,2つのシミュレータで同じ筋の運動制御と骨格のポーズを単純にダイヤルすることで,この意味の一致を創り出すことができる。
提案するニューラルネットワーク超解像フレームワークは,このトレーニングセットから未確認表現を一般化し,リアルタイム変種における解像度の制限やコスト削減近似による2つのシミュレーション間の不一致をモデル化するための補償を行うとともに,意味記述子やパラメータを必要としない。
論文 参考訳(メタデータ) (2023-05-05T00:09:24Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - Differentiable Dynamics for Articulated 3d Human Motion Reconstruction [29.683633237503116]
DiffPhyは、映像から3次元の人間の動きを再現する物理モデルである。
モノクロ映像から物理的に可視な3次元動作を正確に再現できることを実証し,本モデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-05-24T17:58:37Z) - Inferring Articulated Rigid Body Dynamics from RGBD Video [18.154013621342266]
我々は,逆レンダリングと微分可能なシミュレーションを組み合わせるパイプラインを導入し,実世界の調音機構のディジタルツインを作成する。
本手法はロボットが操作する関節機構のキネマティックツリーを正確に再構築する。
論文 参考訳(メタデータ) (2022-03-20T08:19:02Z) - GeoSim: Photorealistic Image Simulation with Geometry-Aware Composition [81.24107630746508]
GeoSimは、新しい都市の運転シーンを合成するジオメトリ認識の画像合成プロセスです。
まず、センサーデータからリアルな形状と外観の両方を備えた多様な3Dオブジェクトのバンクを構築します。
得られた合成画像は、フォトリアリズム、トラフィック認識、幾何学的一貫性があり、画像シミュレーションが複雑なユースケースにスケールできる。
論文 参考訳(メタデータ) (2021-01-16T23:00:33Z) - Cloth in the Wind: A Case Study of Physical Measurement through
Simulation [50.31424339972478]
実例を一度も見ずに風中の布の潜伏物性を測定することを提案する。
私たちのソリューションは、シミュレーションをコアとした反復的な洗練手順です。
この対応は、物理的に類似した例を近くの点にマッピングする埋め込み関数を用いて測定される。
論文 参考訳(メタデータ) (2020-03-09T21:32:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。