論文の概要: MultiGO++: Monocular 3D Clothed Human Reconstruction via Geometry-Texture Collaboration
- arxiv url: http://arxiv.org/abs/2603.04993v1
- Date: Thu, 05 Mar 2026 09:37:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.169606
- Title: MultiGO++: Monocular 3D Clothed Human Reconstruction via Geometry-Texture Collaboration
- Title(参考訳): MultiGO++:幾何-テクスチュアコラボレーションによる単眼の3Dクローンヒト再構築
- Authors: Nanjie Yao, Gangjian Zhang, Wenhao Shen, Jian Shu, Yu Feng, Hao Wang,
- Abstract要約: モノクローナルな3D服の復元は、1枚の画像から完全にリアルなテクスチャ化された3Dアバターを生成することを目的としている。
既存の手法は、注釈付き幾何事前のマルチビュー監視の下で一般的に訓練されており、推論の際には、これらの先行を単眼入力から事前学習されたネットワークによって推定する。
そこで我々はMultiGO++という新しい再構成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.85658775835694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monocular 3D clothed human reconstruction aims to generate a complete and realistic textured 3D avatar from a single image. Existing methods are commonly trained under multi-view supervision with annotated geometric priors, and during inference, these priors are estimated by the pre-trained network from the monocular input. These methods are constrained by three key limitations: texturally by unavailability of training data, geometrically by inaccurate external priors, and systematically by biased single-modality supervision, all leading to suboptimal reconstruction. To address these issues, we propose a novel reconstruction framework, named MultiGO++, which achieves effective systematic geometry-texture collaboration. It consists of three core parts: (1) A multi-source texture synthesis strategy that constructs 15,000+ 3D textured human scans to improve the performance on texture quality estimation in challenge scenarios; (2) A region-aware shape extraction module that extracts and interacts features of each body region to obtain geometry information and a Fourier geometry encoder that mitigates the modality gap to achieve effective geometry learning; (3) A dual reconstruction U-Net that leverages geometry-texture collaborative features to refine and generate high-fidelity textured 3D human meshes. Extensive experiments on two benchmarks and many in-the-wild cases show the superiority of our method over state-of-the-art approaches.
- Abstract(参考訳): モノクローナルな3D服の復元は、1枚の画像から完全にリアルなテクスチャ化された3Dアバターを生成することを目的としている。
既存の手法は、注釈付き幾何事前のマルチビュー監視の下で一般的に訓練されており、推論の際には、これらの事前学習は単分子入力から事前学習されたネットワークによって推定される。
これらの手法は3つの重要な制限によって制約されている: トレーニングデータの不適切さによるテキスト化、不正確な外部事前による幾何学化、偏りのある単一モダリティ監視による体系化、これらすべてが最適でない再構築につながる。
これらの課題に対処するため,MultiGO++という新しい再構成フレームワークを提案する。
15000以上のテクスチャを用いたマルチソーステクスチャ合成手法により,課題シナリオにおけるテクスチャ品質評価の性能向上を図ること,(2)各部位の特徴を抽出・相互作用して幾何学情報を得る領域認識型形状抽出モジュールと,効果的な幾何学学習を実現するためのモダリティギャップを緩和するフーリエ幾何エンコーダ,(3)高忠実なテクスチャ化された3次元メッシュを洗練・生成する2重再構成U-Netからなる。
2つのベンチマークと多くのインザワイルドケースに対する大規模な実験は、我々の手法が最先端のアプローチよりも優れていることを示している。
関連論文リスト
- LARM: A Large Articulated-Object Reconstruction Model [29.66486888001511]
LARMは、スパースビュー画像から3Dの明瞭なオブジェクトを再構成する統合フィードフォワードフレームワークである。
LARMは、ディープマップやパートマスクなどの補助出力を生成し、明示的な3Dメッシュ抽出と関節推定を容易にする。
我々のパイプラインは、密集した監視の必要性を排除し、多様な対象カテゴリにわたる高忠実度再構築をサポートする。
論文 参考訳(メタデータ) (2025-11-14T18:55:27Z) - Wonder3D++: Cross-domain Diffusion for High-fidelity 3D Generation from a Single Image [68.55613894952177]
単一ビュー画像から高忠実なテクスチャメッシュを効率的に生成する新しい手法である textbfWonder3D++ を導入する。
マルチビュー正規写像と対応するカラー画像を生成するクロスドメイン拡散モデルを提案する。
最後に,多視点2次元表現から高品質な表面を粗い方法でわずか3ドル程度で駆動するカスケード3次元メッシュ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-11-03T17:24:18Z) - SAT: Supervisor Regularization and Animation Augmentation for Two-process Monocular Texture 3D Human Reconstruction [7.584417190255802]
モノクラーテクスチャ3D人間の再構築は、単一のフロントビューの人間のRGB画像から完全な3Dデジタルアバターを作成することを目的としている。
本研究では,従来の様々な測地を統一的にシームレスに学習する2プロセスの人体再構成フレームワークSATを提案する。
また,データ不足に対処し,再現性を向上させるオンラインアニメーション拡張モジュールを提案する。
論文 参考訳(メタデータ) (2025-08-27T08:52:35Z) - GTR: Gaussian Splatting Tracking and Reconstruction of Unknown Objects Based on Appearance and Geometric Complexity [49.31257173003408]
モノクローナルRGBDビデオからの6-DoFオブジェクト追跡と高品質な3D再構成のための新しい手法を提案する。
提案手法は, 高忠実度オブジェクトメッシュを復元する強力な能力を示し, オープンワールド環境における単一センサ3D再構成のための新しい標準を策定する。
論文 参考訳(メタデータ) (2025-05-17T08:46:29Z) - GRACE: Estimating Geometry-level 3D Human-Scene Contact from 2D Images [54.602947113980655]
人景接触の幾何レベルを推定することは、特定の接触面点を3次元の人間ジオメトリに接することを目的としている。
GRACE(Geometry-level Reasoning for 3D Human-scene Contact Estimation)は,3次元接触推定のための新しいパラダイムである。
ポイントクラウドエンコーダ/デコーダアーキテクチャと階層的特徴抽出と融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2025-05-10T09:25:46Z) - Textured Mesh Saliency: Bridging Geometry and Texture for Human Perception in 3D Graphics [50.23625950905638]
6自由度(6-DOF)VR環境下での革新的な視線追跡実験により構築したテクスチャメッシュ・サリエンシのための新しいデータセットを提案する。
本モデルでは,各三角形の面を個々の単位として扱い,各局所表面領域の重要性を反映した塩分濃度値を割り当てることで,テクスチャメッシュ表面の塩分濃度マップを推定する。
論文 参考訳(メタデータ) (2024-12-11T08:27:33Z) - MultiGO: Towards Multi-level Geometry Learning for Monocular 3D Textured Human Reconstruction [4.457326808146675]
本稿では, 単眼画像から3次元布体を再構築する研究課題について検討する。
既存のアプローチでは、事前訓練されたSMPL(-X)推定モデルや生成モデルを利用して、人間の再構築に補助情報を提供する。
技術的には,骨格レベルの強化,関節レベルの強化,輪郭レベルの改良モジュールの3つの重要なコンポーネントを設計する。
論文 参考訳(メタデータ) (2024-12-04T08:06:06Z) - Geometry-guided Feature Learning and Fusion for Indoor Scene Reconstruction [14.225228781008209]
本稿では3次元シーン再構成のための新しい幾何学的統合機構を提案する。
提案手法は,特徴学習,特徴融合,ネットワーク監視という3段階の3次元幾何学を取り入れている。
論文 参考訳(メタデータ) (2024-08-28T08:02:47Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - G-NeRF: Geometry-enhanced Novel View Synthesis from Single-View Images [45.66479596827045]
我々は,幾何誘導多視点合成手法により,幾何先行性を高めるための幾何強調型NeRF(G-NeRF)を提案する。
単一視点画像に対する多視点監視の欠如に対処するために,深度認識型トレーニングアプローチを設計する。
論文 参考訳(メタデータ) (2024-04-11T04:58:18Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。