論文の概要: ReWeaver: Towards Simulation-Ready and Topology-Accurate Garment Reconstruction
- arxiv url: http://arxiv.org/abs/2601.16672v1
- Date: Fri, 23 Jan 2026 11:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.669619
- Title: ReWeaver: Towards Simulation-Ready and Topology-Accurate Garment Reconstruction
- Title(参考訳): ReWeaver: シミュレーション対応とトポロジー対応のガーメント再構築に向けて
- Authors: Ming Li, Hui Shan, Kai Zheng, Chentao Shen, Siyu Liu, Yanwei Fu, Zhen Chen, Xiangru Huang,
- Abstract要約: ReWeaverは、粗いマルチビューRGB画像からトポロジー精度の高い3D衣服と縫製パターンを再構築するための新しいフレームワークである。
我々は,多視点RGB画像,3次元衣服幾何学,テクスチャ化された人体メッシュ,注釈付き縫製パターンからなる大規模データセットGCD-TSを構築した。
- 参考スコア(独自算出の注目度): 32.919669263399534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality 3D garment reconstruction plays a crucial role in mitigating the sim-to-real gap in applications such as digital avatars, virtual try-on and robotic manipulation. However, existing garment reconstruction methods typically rely on unstructured representations, such as 3D Gaussian Splats, struggling to provide accurate reconstructions of garment topology and sewing structures. As a result, the reconstructed outputs are often unsuitable for high-fidelity physical simulation. We propose ReWeaver, a novel framework for topology-accurate 3D garment and sewing pattern reconstruction from sparse multi-view RGB images. Given as few as four input views, ReWeaver predicts seams and panels as well as their connectivities in both the 2D UV space and the 3D space. The predicted seams and panels align precisely with the multi-view images, yielding structured 2D--3D garment representations suitable for 3D perception, high-fidelity physical simulation, and robotic manipulation. To enable effective training, we construct a large-scale dataset GCD-TS, comprising multi-view RGB images, 3D garment geometries, textured human body meshes and annotated sewing patterns. The dataset contains over 100,000 synthetic samples covering a wide range of complex geometries and topologies. Extensive experiments show that ReWeaver consistently outperforms existing methods in terms of topology accuracy, geometry alignment and seam-panel consistency.
- Abstract(参考訳): 高品質な3D衣服の再構築は、デジタルアバター、バーチャルトライオン、ロボット操作などの応用において、シム・トゥ・リアルのギャップを緩和する上で重要な役割を担っている。
しかし、既存の衣服の復元法は一般的に3Dガウススプレートのような非構造的表現に依存しており、衣服のトポロジーや縫製構造の正確な再構築に苦慮している。
その結果、再構成された出力は高忠実度物理シミュレーションには適さないことが多い。
本稿では,多視点RGB画像からトポロジ精度の高い3次元衣料と縫製パターンを復元する新しいフレームワークであるReWeaverを提案する。
入力ビューは4つまでだが、ReWeaverは2D UV空間と3D空間の接続性だけでなく、シームやパネルも予測する。
予測されたシームとパネルは、多視点画像と正確に一致し、3次元知覚、高忠実度物理シミュレーション、ロボット操作に適した構造化された2D-3Dの衣服表現が得られる。
効果的なトレーニングを実現するため,多視点RGB画像,3次元衣服幾何学,テクスチャ化された人体メッシュ,注釈付き縫製パターンからなる大規模データセットGCD-TSを構築した。
このデータセットは、幅広い複雑な地形と地形をカバーする10,000以上の合成サンプルを含んでいる。
大規模な実験により、ReWeaverはトポロジの正確性、幾何の整合性、シーム・パネルの整合性の観点から、既存の手法よりも一貫して優れていることが示された。
関連論文リスト
- DiMeR: Disentangled Mesh Reconstruction Model [29.827345186012558]
DiMeRは、疎視メッシュ再構成のための3次元監視を備えた、幾何学的・テクスチュアなアンタングルフィードフォワードモデルである。
性能/コストの低いモジュールを排除し,正規化損失を再設計し,メッシュ抽出のアルゴリズムを効率化する。
大規模な実験により、DiMeRはスパースビュー、シングルイメージ、テキストから3Dタスクにまたがって一般化し、ベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2025-04-24T15:39:20Z) - Single View Garment Reconstruction Using Diffusion Mapping Via Pattern Coordinates [45.48311596587306]
画像から3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実などの応用に基本となる。
本稿では,2次元および3次元の表現をブリッジする単一画像から高忠実度3次元衣服を復元する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-11T08:39:18Z) - Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - USR: Unsupervised Separated 3D Garment and Human Reconstruction via
Geometry and Semantic Consistency [41.89803177312638]
本研究では,人体を再構築し,テクスチャ化された衣服を3次元モデルなしで層状に再現する,非教師付き分離型3D衣服と人体再構成モデルを提案する。
身近な多視点画像と身近な人物のジオメトリのマッピングを学習するための一般化した表面認識型ニューラルラジオアンス場を提案する。
論文 参考訳(メタデータ) (2023-02-21T08:48:27Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。