論文の概要: Image2Garment: Simulation-ready Garment Generation from a Single Image
- arxiv url: http://arxiv.org/abs/2601.09658v1
- Date: Wed, 14 Jan 2026 17:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.491036
- Title: Image2Garment: Simulation-ready Garment Generation from a Single Image
- Title(参考訳): Image2Garment: 1枚の画像からシミュレーション可能なガーメント生成
- Authors: Selim Emir Can, Jan Ackermann, Kiyohiro Nakayama, Ruofan Liu, Tong Wu, Yang Zheng, Hugo Bertiche, Menglei Chai, Thabo Beeler, Gordon Wetzstein,
- Abstract要約: 実画像から材料組成と布質特性を推定する視覚言語モデルを提案する。
次に、これらの属性を対応する物理ファブリックパラメータにマッピングする軽量な予測器をトレーニングします。
実験により, 材料組成推定および布質特性予測において, 推定器の精度が向上することが確認された。
- 参考スコア(独自算出の注目度): 52.37273643091814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating physically accurate, simulation-ready garments from a single image is challenging due to the absence of image-to-physics datasets and the ill-posed nature of this problem. Prior methods either require multi-view capture and expensive differentiable simulation or predict only garment geometry without the material properties required for realistic simulation. We propose a feed-forward framework that sidesteps these limitations by first fine-tuning a vision-language model to infer material composition and fabric attributes from real images, and then training a lightweight predictor that maps these attributes to the corresponding physical fabric parameters using a small dataset of material-physics measurements. Our approach introduces two new datasets (FTAG and T2P) and delivers simulation-ready garments from a single image without iterative optimization. Experiments show that our estimator achieves superior accuracy in material composition estimation and fabric attribute prediction, and by passing them through our physics parameter estimator, we further achieve higher-fidelity simulations compared to state-of-the-art image-to-garment methods.
- Abstract(参考訳): 物理的に正確でシミュレーション可能な衣服を1枚の画像から推定することは、画像と物理のデータセットが欠如していることと、この問題の誤った性質のために困難である。
従来の手法では、マルチビューキャプチャーと高価な微分可能シミュレーションを必要とするか、現実的なシミュレーションに必要な材料特性を必要とせず、衣服の幾何学のみを予測する必要がある。
本稿では,まず視覚言語モデルを用いて実画像から材料組成と布質特性を推定し,それらの特性を対応する物理織物パラメータにマッピングする軽量な予測器を,材料物理測定の小さなデータセットを用いて訓練することにより,これらの制約を回避できるフィードフォワードフレームワークを提案する。
提案手法では,FTAGとT2Pの2つの新しいデータセットを導入し,反復的最適化を伴わずに1つの画像からシミュレーション可能な衣服を提供する。
実験により, 材料組成推定および布質特性予測において, 評価装置の精度が向上し, 物理パラメータ推定装置を通すことで, 最新の画像読取法と比較して, より高精度なシミュレーションが実現できることがわかった。
関連論文リスト
- MatE: Material Extraction from Single-Image via Geometric Prior [36.8533172704247]
MatEは、制約のない実世界の条件下で撮影された単一の画像から、タイル状PBR材料を生成する新しい方法である。
提案手法の有効性とロバスト性を実証し,実世界の画像から現実的な素材を作成できるようにする。
論文 参考訳(メタデータ) (2025-12-20T10:53:49Z) - From images to properties: a NeRF-driven framework for granular material parameter inversion [1.8231854497751137]
本稿では,ニューラルラジアンス場(NeRF)と物質点法(MPM)のシミュレーションを統合し,視覚的観察から物質特性を推定する新しいフレームワークを提案する。
その結果, 摩擦角は2度以内の誤差で推定できることが示され, 純粋視覚観察による逆解析の有効性が示された。
論文 参考訳(メタデータ) (2025-07-11T20:15:59Z) - Alchemist: Parametric Control of Material Properties with Diffusion
Models [51.63031820280475]
本手法は,フォトリアリズムで知られているテキスト・イメージ・モデルの生成先行に乗じる。
我々は,NeRFの材料化へのモデルの適用の可能性を示す。
論文 参考訳(メタデータ) (2023-12-05T18:58:26Z) - DiffAvatar: Simulation-Ready Garment Optimization with Differentiable Simulation [27.553678582454648]
物理シミュレーションは、人間の現実的な動きを生み出すことができるが、布のシミュレーションには、関連する物理パラメータを持つ高品質な衣服の資産が必要である。
本稿では,身体と衣服の共最適化を行う新しい手法であるPapernameを提案する。
提案手法は,下流の用途に適したリアルな衣服や体型を創出することを示す。
論文 参考訳(メタデータ) (2023-11-20T21:20:37Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - Generic Lithography Modeling with Dual-band Optics-Inspired Neural
Networks [52.200624127512874]
我々は、リソグラフィの基礎となる光学物理を考慮に入れたデュアルバンド光インスパイアされたニューラルネットワーク設計を導入する。
提案手法は, タイルサイズが1nm2/ピクセル解像度で最初に公表された金属/金属層輪郭シミュレーションである。
また,従来のリソグラフィーシミュレータよりも精度1%の精度で85倍の高速化を実現した。
論文 参考訳(メタデータ) (2022-03-12T08:08:50Z) - Task2Sim : Towards Effective Pre-training and Transfer from Synthetic
Data [74.66568380558172]
本稿では,グラフィックスシミュレータから下流タスクへの合成データに基づく事前学習モデルの転送可能性について検討する。
本稿では、最適なシミュレーションパラメータに対する下流タスク表現を統一したモデルマッピングであるTask2Simを紹介する。
このマッピングはトレーニングによって学習し、"見える"タスクのセットで最適なパラメータのセットを見つける。
トレーニングが完了すると、ワンショットで新しい"見えない"タスクの最適なシミュレーションパラメータを予測するために使用することができる。
論文 参考訳(メタデータ) (2021-11-30T19:25:27Z) - Visual design intuition: Predicting dynamic properties of beams from raw
cross-section images [6.76432840291023]
視覚検査と経験だけでデザインの性能を推定するために、直観を習得する人間の能力を模倣することを目的としている。
本研究では, 畳み込みニューラルネットワークによるカンチレバービームの静的および動的特性の予測について検討した。
論文 参考訳(メタデータ) (2021-11-14T03:10:15Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。