論文の概要: NGD: Neural Gradient Based Deformation for Monocular Garment Reconstruction
- arxiv url: http://arxiv.org/abs/2508.17712v1
- Date: Mon, 25 Aug 2025 06:40:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.662009
- Title: NGD: Neural Gradient Based Deformation for Monocular Garment Reconstruction
- Title(参考訳): NGDによる単眼ガーメント再建のための神経勾配に基づく変形
- Authors: Soham Dasgupta, Shanthika Naik, Preet Savalia, Sujay Kumar Ingle, Avinash Sharma,
- Abstract要約: モノクロ映像から動的に衣料を復元することは、衣料の複雑なダイナミクスと制約のない性質のために重要な課題であるが、難しい課題である。
ニューラルレンダリングの最近の進歩は、画像/映像の監督による高品質な幾何学的再構成を可能にしている。
モノクラービデオから動的に進化するテクスチャ化された衣服を再構成する,ニューラルグラディエントに基づく変形法NGDを提案する。
- 参考スコア(独自算出の注目度): 2.8801537805576776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic garment reconstruction from monocular video is an important yet challenging task due to the complex dynamics and unconstrained nature of the garments. Recent advancements in neural rendering have enabled high-quality geometric reconstruction with image/video supervision. However, implicit representation methods that use volume rendering often provide smooth geometry and fail to model high-frequency details. While template reconstruction methods model explicit geometry, they use vertex displacement for deformation, which results in artifacts. Addressing these limitations, we propose NGD, a Neural Gradient-based Deformation method to reconstruct dynamically evolving textured garments from monocular videos. Additionally, we propose a novel adaptive remeshing strategy for modelling dynamically evolving surfaces like wrinkles and pleats of the skirt, leading to high-quality reconstruction. Finally, we learn dynamic texture maps to capture per-frame lighting and shadow effects. We provide extensive qualitative and quantitative evaluations to demonstrate significant improvements over existing SOTA methods and provide high-quality garment reconstructions.
- Abstract(参考訳): モノクロ映像から動的に衣料を復元することは、衣料の複雑なダイナミクスと制約のない性質のために重要な課題であるが、難しい課題である。
ニューラルレンダリングの最近の進歩は、画像/映像の監督による高品質な幾何学的再構成を可能にしている。
しかし、ボリュームレンダリングを使用する暗黙の表現法は、しばしば滑らかな幾何学を提供し、高周波の詳細をモデル化することができない。
テンプレート再構成法は明示的な幾何学をモデル化するが、変形のために頂点変位を用いるため、成果物が生成される。
これらの制約に対処するため,単眼ビデオから動的に進化するテクスチャ化された衣服を再構成するニューラルグラディエントに基づく変形法NGDを提案する。
さらに,スカートのしわやプリートなどの動的に変化する表面をモデル化し,高品質な再構築を実現するための新しい適応型リメッシング手法を提案する。
最後に、動的テクスチャマップを学び、フレームごとの照明と影の効果を捉えます。
我々は,既存のSOTA法よりも優れた質的,定量的な評価を行い,高品質な衣服の復元を行った。
関連論文リスト
- AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - GaussianBody: Clothed Human Reconstruction via 3d Gaussian Splatting [14.937297984020821]
本稿では,3次元ガウシアンスプラッティングをベースとした,ガウシアンボディと呼ばれる新しい布地復元手法を提案する。
静的な3次元ガウススメッティングモデルを動的復元問題に適用することは、複雑な非剛性変形とリッチな布の細部のために非自明である。
本手法は,ダイナミックな衣料人体に高精細な画質で,最先端のフォトリアリスティックなノベルビューレンダリングを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-18T04:48:13Z) - Neural Surface Reconstruction of Dynamic Scenes with Monocular RGB-D
Camera [26.410460029742456]
モノクラーRGB-Dカメラから動的シーンの高忠実度形状と動きを復元するテンプレートレス手法を提案する。
公開データセットと収集データセットの実験により、NDRは既存の単分子動的再構成法より優れていることが示された。
論文 参考訳(メタデータ) (2022-06-30T13:09:39Z) - MonoSDF: Exploring Monocular Geometric Cues for Neural Implicit Surface
Reconstruction [72.05649682685197]
最先端のニューラル暗黙法は、多くの入力ビューから単純なシーンの高品質な再構築を可能にする。
これは主に、十分な制約を提供していないRGB再構築損失の固有の曖昧さによって引き起こされる。
近年の単分子形状予測の分野での進歩に触発され, ニューラルな暗黙的表面再構成の改善にこれらの方法が役立つかを探究する。
論文 参考訳(メタデータ) (2022-06-01T17:58:15Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - NeuS: Learning Neural Implicit Surfaces by Volume Rendering for
Multi-view Reconstruction [88.02850205432763]
物体やシーンを2次元画像入力から高忠実度に再構成するニュートラルサーフェス(NeuS)を提案する。
DVRやIDRのような既存の神経表面再構成アプローチでは、フォアグラウンドマスクを監督する必要がある。
本研究では,従来のボリュームレンダリング手法が表面再構成に固有の幾何学的誤差を引き起こすことを観察する。
マスクの監督なしでもより正確な表面再構成を実現するため,第一次近似ではバイアスのない新しい定式化を提案する。
論文 参考訳(メタデータ) (2021-06-20T12:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。