論文の概要: HoloGarment: 360° Novel View Synthesis of In-the-Wild Garments
- arxiv url: http://arxiv.org/abs/2509.12187v1
- Date: Mon, 15 Sep 2025 17:50:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.438147
- Title: HoloGarment: 360° Novel View Synthesis of In-the-Wild Garments
- Title(参考訳): HoloGarment: In-the-Wild Garmentsの新しい360°ビュー合成
- Authors: Johanna Karras, Yingwei Li, Yasamin Jafarian, Ira Kemelmacher-Shlizerman,
- Abstract要約: HoloGarmentは、衣服を身に着けている人の1~3枚の画像や連続したビデオを撮り、標準的なポーズで衣服の360度斬新なビューを生成する方法である。
本手法は,フォトリアリズム,ビューの整合性,テクスチャの細部,正確な形状を保ちながら,現実の難解なアーティファクトを頑健に処理する。
- 参考スコア(独自算出の注目度): 13.562858012096775
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Novel view synthesis (NVS) of in-the-wild garments is a challenging task due significant occlusions, complex human poses, and cloth deformations. Prior methods rely on synthetic 3D training data consisting of mostly unoccluded and static objects, leading to poor generalization on real-world clothing. In this paper, we propose HoloGarment (Hologram-Garment), a method that takes 1-3 images or a continuous video of a person wearing a garment and generates 360{\deg} novel views of the garment in a canonical pose. Our key insight is to bridge the domain gap between real and synthetic data with a novel implicit training paradigm leveraging a combination of large-scale real video data and small-scale synthetic 3D data to optimize a shared garment embedding space. During inference, the shared embedding space further enables dynamic video-to-360{\deg} NVS through the construction of a garment "atlas" representation by finetuning a garment embedding on a specific real-world video. The atlas captures garment-specific geometry and texture across all viewpoints, independent of body pose or motion. Extensive experiments show that HoloGarment achieves state-of-the-art performance on NVS of in-the-wild garments from images and videos. Notably, our method robustly handles challenging real-world artifacts -- such as wrinkling, pose variation, and occlusion -- while maintaining photorealism, view consistency, fine texture details, and accurate geometry. Visit our project page for additional results: https://johannakarras.github.io/HoloGarment
- Abstract(参考訳): In-the-Wild 服の新しいビュー合成 (NVS) は、重要な閉塞、複雑な人間のポーズ、布の変形のために難しい課題である。
それまでの手法は、ほとんど排除されていない、静的な物体からなる合成3Dトレーニングデータに依存していたため、現実世界の衣服の一般化は不十分であった。
本稿では,ホロゲージ(ホログラム・グラメント)という,衣服を身に着けている人の1-3画像や連続映像を撮影し,標準的なポーズで360{\degという斬新な映像を生成する手法を提案する。
我々の重要な洞察は、大規模な実ビデオデータと小規模合成3Dデータを組み合わせて、共有衣料の埋め込み空間を最適化する新しい暗黙の訓練パラダイムで、実データと合成データのドメインギャップを埋めることである。
推論中、共有埋め込み空間は、特定の現実世界のビデオに埋め込まれた衣服を微調整することにより、衣服の「アトラス」表現を構築することにより、ダイナミックなビデオから360{\deg} NVSを可能にする。
アトラスは、身体のポーズや動きによらず、あらゆる視点で衣服特有の幾何学とテクスチャを捉えている。
広範にわたる実験により,HoloGarmentは,画像やビデオから得られた被服のNVS上での最先端のパフォーマンスを実現していることがわかった。
特に,本手法は,光写実性,眺めの一貫性,きめ細かなテクスチャの細部,正確な幾何学性を維持しながら,シワやポーズのバリエーション,オクルージョンなど,現実世界の挑戦的なアーティファクトを頑強に処理する。
プロジェクトページを見てください。 https://johannakarras.github.io/HoloGarment
関連論文リスト
- Single View Garment Reconstruction Using Diffusion Mapping Via Pattern Coordinates [45.48311596587306]
画像から3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実などの応用に基本となる。
本稿では,2次元および3次元の表現をブリッジする単一画像から高忠実度3次元衣服を復元する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-11T08:39:18Z) - GarmentCrafter: Progressive Novel View Synthesis for Single-View 3D Garment Reconstruction and Editing [85.67881477813592]
GarmentCrafterは、プロでないユーザが、単一のビューイメージから3Dの衣服を作成、修正できる新しいアプローチである。
本手法は,最先端のワンビュー3D衣料復元法と比較して,視覚的忠実度と視間コヒーレンスに優れる。
論文 参考訳(メタデータ) (2025-03-11T17:56:03Z) - From an Image to a Scene: Learning to Imagine the World from a Million 360 Videos [71.22810401256234]
オブジェクトやシーンの3次元理解は、人間が世界と対話する能力において重要な役割を果たす。
大規模合成およびオブジェクト中心の3Dデータセットは、オブジェクトの3D理解を持つモデルのトレーニングに有効であることが示されている。
我々は360-1M、360度ビデオデータセット、およびスケールの多様な視点から対応するフレームを効率的に見つけるプロセスを紹介した。
論文 参考訳(メタデータ) (2024-12-10T18:59:44Z) - Gaussian Garments: Reconstructing Simulation-Ready Clothing with Photorealistic Appearance from Multi-View Video [66.98046635045685]
マルチビュー映像からリアルなシミュレーション可能な衣服資産を再構築するための新しい手法を提案する。
本手法は,3次元メッシュとガウステクスチャを組み合わせた衣服を表現し,その色と高周波表面の細部をエンコードする。
この表現は、マルチビュービデオへの衣服のジオメトリの正確な登録を可能にし、照明効果からアルベドのテクスチャを遠ざけるのに役立つ。
論文 参考訳(メタデータ) (2024-09-12T16:26:47Z) - Garment Animation NeRF with Color Editing [6.357662418254495]
そこで本稿では, 明示的な衣料プロキシを必要とせずに, 身体動作系列から衣料アニメーションを合成する手法を提案する。
本手法は, 体の動きから衣服の動的特徴を推定し, 衣服構造を概観する。
身体の動きやカメラの視界にまたがる手法の一般化性を実証し、詳細な構造的整合性を確保する。
論文 参考訳(メタデータ) (2024-07-29T08:17:05Z) - GarmentDreamer: 3DGS Guided Garment Synthesis with Diverse Geometry and Texture Details [31.92583566128599]
伝統的な3D衣服の作成は、スケッチ、モデリング、紫外線マッピング、時間のかかるプロセスを含む労働集約型である。
本稿では,GarmentDreamerを提案する。GarmentDreamerは,テキストプロンプトから3D衣料を生成するためのガイダンスとして,3Dガウススプラッティング(GS)を利用する新しい手法である。
論文 参考訳(メタデータ) (2024-05-20T23:54:28Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - PERGAMO: Personalized 3D Garments from Monocular Video [6.8338761008826445]
PERGAMOはモノクロ画像から3D衣服の変形可能なモデルを学ぶためのデータ駆動型アプローチである。
まず,1枚の画像から衣服の3次元形状を再構築する新しい手法を紹介し,それを用いて単眼ビデオから衣服のデータセットを構築する。
本手法は,実世界の動作にマッチする衣料アニメーションを作成でき,モーションキャプチャーデータセットから抽出した身体の動きを一般化できることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:15:54Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。