論文の概要: DiffAvatar: Simulation-Ready Garment Optimization with Differentiable Simulation
- arxiv url: http://arxiv.org/abs/2311.12194v2
- Date: Fri, 29 Mar 2024 19:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 15:05:24.207066
- Title: DiffAvatar: Simulation-Ready Garment Optimization with Differentiable Simulation
- Title(参考訳): DiffAvatar: 微分可能なシミュレーションによるシミュレーション対応ガーメント最適化
- Authors: Yifei Li, Hsiao-yu Chen, Egor Larionov, Nikolaos Sarafianos, Wojciech Matusik, Tuur Stuyck,
- Abstract要約: 物理シミュレーションは、人間の現実的な動きを生み出すことができるが、布のシミュレーションには、関連する物理パラメータを持つ高品質な衣服の資産が必要である。
本稿では,身体と衣服の共最適化を行う新しい手法であるPapernameを提案する。
提案手法は,下流の用途に適したリアルな衣服や体型を創出することを示す。
- 参考スコア(独自算出の注目度): 27.553678582454648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The realism of digital avatars is crucial in enabling telepresence applications with self-expression and customization. While physical simulations can produce realistic motions for clothed humans, they require high-quality garment assets with associated physical parameters for cloth simulations. However, manually creating these assets and calibrating their parameters is labor-intensive and requires specialized expertise. Current methods focus on reconstructing geometry, but don't generate complete assets for physics-based applications. To address this gap, we propose \papername,~a novel approach that performs body and garment co-optimization using differentiable simulation. By integrating physical simulation into the optimization loop and accounting for the complex nonlinear behavior of cloth and its intricate interaction with the body, our framework recovers body and garment geometry and extracts important material parameters in a physically plausible way. Our experiments demonstrate that our approach generates realistic clothing and body shape suitable for downstream applications. We provide additional insights and results on our webpage: https://people.csail.mit.edu/liyifei/publication/diffavatar/
- Abstract(参考訳): デジタルアバターのリアリズムは、自己表現とカスタマイズを備えたテレプレゼンスアプリケーションの実現に不可欠である。
物理シミュレーションは、人間の現実的な動きを生み出すことができるが、布のシミュレーションには、関連する物理パラメータを持つ高品質な衣服の資産が必要である。
しかし、これらの資産を手動で作成し、それらのパラメータを調整することは労働集約的であり、専門的な専門知識を必要とする。
現在の手法は幾何学の再構築に重点を置いているが、物理学に基づく応用のための完全な資産は生成していない。
このギャップに対処するために、微分可能なシミュレーションを用いて身体と衣服の共最適化を行う新しいアプローチである「ペーパーネーム」を提案する。
物理シミュレーションを最適化ループに統合し、布の複雑な非線形挙動と身体との複雑な相互作用を考慮し、身体と衣服の形状を復元し、重要な材料パラメータを物理的に妥当な方法で抽出する。
提案手法は,下流の用途に適したリアルな衣服や体型を創出することを示す。
https://people.csail.mit.edu/liyifei/publication/diffavatar/
関連論文リスト
- GauSim: Registering Elastic Objects into Digital World by Gaussian Simulator [55.02281855589641]
GauSimは、ガウスカーネルを通して表現される現実の弾性物体の動的挙動をキャプチャするために設計された、ニューラルネットワークベースの新しいシミュレータである。
我々は連続体力学を活用し、各カーネルを連続体としてモデル化し、理想化された仮定なしに現実的な変形を考慮に入れた。
ガウシムは質量や運動量保存などの明示的な物理制約を取り入れ、解釈可能な結果と堅牢で物理的に妥当なシミュレーションを確実にする。
論文 参考訳(メタデータ) (2024-12-23T18:58:17Z) - SimAvatar: Simulation-Ready Avatars with Layered Hair and Clothing [59.44721317364197]
テキストプロンプトからシミュレーション可能な3次元アバターを生成するためのフレームワークであるSimAvatarを紹介する。
提案手法は, 現実的で, 完全にシミュレーション可能な3Dアバターを製作し, 現行のアプローチの能力を上回った最初の手法である。
論文 参考訳(メタデータ) (2024-12-12T18:35:26Z) - Realistic Surgical Simulation from Monocular Videos [49.114370617718244]
本稿では,手軽な手術映像からリアルな手術シミュレーションを自動実行することの課題に対処する。
本稿では,これらの制約を克服する新しい自動シミュレーションシステムであるSurgiSimを提案する。
様々な手術シナリオと相互作用の実験は、SurgiSimが軟組織の現実的なシミュレーションを行う能力を示している。
論文 参考訳(メタデータ) (2024-12-03T10:32:41Z) - A Physics-embedded Deep Learning Framework for Cloth Simulation [6.8806198396336935]
本稿では,布地シミュレーションの物理特性を直接エンコードする物理組込み学習フレームワークを提案する。
このフレームワークは、従来のシミュレータやサブニューラルネットワークを通じて、外部の力や衝突処理と統合することもできる。
論文 参考訳(メタデータ) (2024-03-19T15:21:00Z) - DiffuseBot: Breeding Soft Robots With Physics-Augmented Generative
Diffusion Models [102.13968267347553]
本稿では,様々なタスクにおいて優れたソフトロボット形態を生成する物理拡張拡散モデルであるDiffuseBotを提案する。
我々は、その能力とともに、シミュレーションされた、そして製造された様々なロボットを紹介します。
論文 参考訳(メタデータ) (2023-11-28T18:58:48Z) - Benchmarking the Sim-to-Real Gap in Cloth Manipulation [10.530012817995656]
布の操作におけるシム・トゥ・リアルギャップを評価するためのベンチマークデータセットを提案する。
このデータセットを用いて、一般的な4つの変形可能なオブジェクトシミュレータの現実的ギャップ、計算時間、安定性を評価する。
論文 参考訳(メタデータ) (2023-10-14T09:36:01Z) - Near-realtime Facial Animation by Deep 3D Simulation Super-Resolution [7.14576106770047]
本稿では,低コストでリアルタイムな物理シミュレーションによって生み出す顔のパフォーマンスを効率よく,現実的に向上させるニューラルネットワークに基づくシミュレーションフレームワークを提案する。
顔のアニメーションをこのようなシミュレーション領域の例に用いて,2つのシミュレータで同じ筋の運動制御と骨格のポーズを単純にダイヤルすることで,この意味の一致を創り出すことができる。
提案するニューラルネットワーク超解像フレームワークは,このトレーニングセットから未確認表現を一般化し,リアルタイム変種における解像度の制限やコスト削減近似による2つのシミュレーション間の不一致をモデル化するための補償を行うとともに,意味記述子やパラメータを必要としない。
論文 参考訳(メタデータ) (2023-05-05T00:09:24Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - Inferring Articulated Rigid Body Dynamics from RGBD Video [18.154013621342266]
我々は,逆レンダリングと微分可能なシミュレーションを組み合わせるパイプラインを導入し,実世界の調音機構のディジタルツインを作成する。
本手法はロボットが操作する関節機構のキネマティックツリーを正確に再構築する。
論文 参考訳(メタデータ) (2022-03-20T08:19:02Z) - GeoSim: Photorealistic Image Simulation with Geometry-Aware Composition [81.24107630746508]
GeoSimは、新しい都市の運転シーンを合成するジオメトリ認識の画像合成プロセスです。
まず、センサーデータからリアルな形状と外観の両方を備えた多様な3Dオブジェクトのバンクを構築します。
得られた合成画像は、フォトリアリズム、トラフィック認識、幾何学的一貫性があり、画像シミュレーションが複雑なユースケースにスケールできる。
論文 参考訳(メタデータ) (2021-01-16T23:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。