論文の概要: ReWeaver: Towards Simulation-Ready and Topology-Accurate Garment Reconstruction
- arxiv url: http://arxiv.org/abs/2601.16672v1
- Date: Fri, 23 Jan 2026 11:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.669619
- Title: ReWeaver: Towards Simulation-Ready and Topology-Accurate Garment Reconstruction
- Title(参考訳): ReWeaver: シミュレーション対応とトポロジー対応のガーメント再構築に向けて
- Authors: Ming Li, Hui Shan, Kai Zheng, Chentao Shen, Siyu Liu, Yanwei Fu, Zhen Chen, Xiangru Huang,
- Abstract要約: ReWeaverは、粗いマルチビューRGB画像からトポロジー精度の高い3D衣服と縫製パターンを再構築するための新しいフレームワークである。
我々は,多視点RGB画像,3次元衣服幾何学,テクスチャ化された人体メッシュ,注釈付き縫製パターンからなる大規模データセットGCD-TSを構築した。
- 参考スコア(独自算出の注目度): 32.919669263399534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality 3D garment reconstruction plays a crucial role in mitigating the sim-to-real gap in applications such as digital avatars, virtual try-on and robotic manipulation. However, existing garment reconstruction methods typically rely on unstructured representations, such as 3D Gaussian Splats, struggling to provide accurate reconstructions of garment topology and sewing structures. As a result, the reconstructed outputs are often unsuitable for high-fidelity physical simulation. We propose ReWeaver, a novel framework for topology-accurate 3D garment and sewing pattern reconstruction from sparse multi-view RGB images. Given as few as four input views, ReWeaver predicts seams and panels as well as their connectivities in both the 2D UV space and the 3D space. The predicted seams and panels align precisely with the multi-view images, yielding structured 2D--3D garment representations suitable for 3D perception, high-fidelity physical simulation, and robotic manipulation. To enable effective training, we construct a large-scale dataset GCD-TS, comprising multi-view RGB images, 3D garment geometries, textured human body meshes and annotated sewing patterns. The dataset contains over 100,000 synthetic samples covering a wide range of complex geometries and topologies. Extensive experiments show that ReWeaver consistently outperforms existing methods in terms of topology accuracy, geometry alignment and seam-panel consistency.
- Abstract(参考訳): 高品質な3D衣服の再構築は、デジタルアバター、バーチャルトライオン、ロボット操作などの応用において、シム・トゥ・リアルのギャップを緩和する上で重要な役割を担っている。
しかし、既存の衣服の復元法は一般的に3Dガウススプレートのような非構造的表現に依存しており、衣服のトポロジーや縫製構造の正確な再構築に苦慮している。
その結果、再構成された出力は高忠実度物理シミュレーションには適さないことが多い。
本稿では,多視点RGB画像からトポロジ精度の高い3次元衣料と縫製パターンを復元する新しいフレームワークであるReWeaverを提案する。
入力ビューは4つまでだが、ReWeaverは2D UV空間と3D空間の接続性だけでなく、シームやパネルも予測する。
予測されたシームとパネルは、多視点画像と正確に一致し、3次元知覚、高忠実度物理シミュレーション、ロボット操作に適した構造化された2D-3Dの衣服表現が得られる。
効果的なトレーニングを実現するため,多視点RGB画像,3次元衣服幾何学,テクスチャ化された人体メッシュ,注釈付き縫製パターンからなる大規模データセットGCD-TSを構築した。
このデータセットは、幅広い複雑な地形と地形をカバーする10,000以上の合成サンプルを含んでいる。
大規模な実験により、ReWeaverはトポロジの正確性、幾何の整合性、シーム・パネルの整合性の観点から、既存の手法よりも一貫して優れていることが示された。
関連論文リスト
- MultiGO++: Monocular 3D Clothed Human Reconstruction via Geometry-Texture Collaboration [10.85658775835694]
モノクローナルな3D服の復元は、1枚の画像から完全にリアルなテクスチャ化された3Dアバターを生成することを目的としている。
既存の手法は、注釈付き幾何事前のマルチビュー監視の下で一般的に訓練されており、推論の際には、これらの先行を単眼入力から事前学習されたネットワークによって推定する。
そこで我々はMultiGO++という新しい再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-05T09:37:55Z) - RnG: A Unified Transformer for Complete 3D Modeling from Partial Observations [70.83499963694238]
RnG(Reconstruction and Generation)は、再構成と生成を統合する新しいフィードフォワードトランスである。
可視的幾何学を再構築し、可視的でコヒーレントな不明瞭な幾何学と外観を生成する。
提案手法は, 一般化可能な3次元再構成と新しいビュー生成の両方において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2026-03-01T17:25:32Z) - Spatio-Temporal Garment Reconstruction Using Diffusion Mapping via Pattern Coordinates [38.93906389023275]
モノクロ画像やビデオから3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実における基本的な問題である。
単一画像とシーケンスの両方から高忠実度な3D衣料の再構築を提案する。
再構築された衣服は、テクスチャ編集、衣料縫い、アニメーションなどの下流の用途をサポートしながら、リアルなダイナミックな動きを示しながら、微妙な幾何学的ディテールを保っている。
論文 参考訳(メタデータ) (2026-02-27T14:19:23Z) - DiMeR: Disentangled Mesh Reconstruction Model [29.827345186012558]
DiMeRは、疎視メッシュ再構成のための3次元監視を備えた、幾何学的・テクスチュアなアンタングルフィードフォワードモデルである。
性能/コストの低いモジュールを排除し,正規化損失を再設計し,メッシュ抽出のアルゴリズムを効率化する。
大規模な実験により、DiMeRはスパースビュー、シングルイメージ、テキストから3Dタスクにまたがって一般化し、ベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2025-04-24T15:39:20Z) - Single View Garment Reconstruction Using Diffusion Mapping Via Pattern Coordinates [45.48311596587306]
画像から3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実などの応用に基本となる。
本稿では,2次元および3次元の表現をブリッジする単一画像から高忠実度3次元衣服を復元する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-11T08:39:18Z) - REArtGS: Reconstructing and Generating Articulated Objects via 3D Gaussian Splatting with Geometric and Motion Constraints [47.82928111264676]
REArtGSは、幾何学的および運動的制約を3Dガウスプリミティブに導入する新しいフレームワークである。
与えられた状態に対する高忠実なテクスチャ化表面再構成を実現し、目に見えない状態に対する高忠実な表面生成を可能にする。
論文 参考訳(メタデータ) (2025-03-09T16:05:36Z) - Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - USR: Unsupervised Separated 3D Garment and Human Reconstruction via
Geometry and Semantic Consistency [41.89803177312638]
本研究では,人体を再構築し,テクスチャ化された衣服を3次元モデルなしで層状に再現する,非教師付き分離型3D衣服と人体再構成モデルを提案する。
身近な多視点画像と身近な人物のジオメトリのマッピングを学習するための一般化した表面認識型ニューラルラジオアンス場を提案する。
論文 参考訳(メタデータ) (2023-02-21T08:48:27Z) - Structure-Preserving 3D Garment Modeling with Neural Sewing Machines [190.70647799442565]
構造保存型3D衣料モデリングのための学習ベースフレームワークであるニューラル縫製機械(NSM)を提案する。
NSMは、多様な衣服形状とトポロジで3D衣服を表現でき、保存された構造で2D画像から3D衣服をリアルに再構成し、3D衣服カテゴリー、形状、トポロジを正確に操作することができる。
論文 参考訳(メタデータ) (2022-11-12T16:43:29Z) - Monocular 3D Object Reconstruction with GAN Inversion [122.96094885939146]
MeshInversionはテクスチャ化された3Dメッシュの再構築を改善するための新しいフレームワークである。
これは、3Dテクスチャメッシュ合成のために事前訓練された3D GANの生成前を利用する。
本フレームワークは,観察部と観察部の両方で一貫した形状とテクスチャを有する忠実な3次元再構成を実現する。
論文 参考訳(メタデータ) (2022-07-20T17:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。