論文の概要: MExECON: Multi-view Extended Explicit Clothed humans Optimized via Normal integration
- arxiv url: http://arxiv.org/abs/2508.15500v1
- Date: Thu, 21 Aug 2025 12:29:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.318782
- Title: MExECON: Multi-view Extended Explicit Clothed humans Optimized via Normal integration
- Title(参考訳): MExECON: 正常な統合により最適化されたマルチビュー拡張明示的な衣服人間
- Authors: Fulden Ece Uğur, Rafael Redondo, Albert Barreiro, Stefan Hristov, Roger Marí,
- Abstract要約: MExECONは、粗いマルチビューRGB画像から人間のアバターを3次元再構成するための新しいパイプラインである。
提案した統合多視点ボディ最適化アルゴリズムは、全ての入力ビューに対して単一のSMPL-Xボディーモデルに適合する。
その結果,MExECONは単一視点ベースラインの忠実度を常に向上し,競争性能が向上することがわかった。
- 参考スコア(独自算出の注目度): 1.3980986259786223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents MExECON, a novel pipeline for 3D reconstruction of clothed human avatars from sparse multi-view RGB images. Building on the single-view method ECON, MExECON extends its capabilities to leverage multiple viewpoints, improving geometry and body pose estimation. At the core of the pipeline is the proposed Joint Multi-view Body Optimization (JMBO) algorithm, which fits a single SMPL-X body model jointly across all input views, enforcing multi-view consistency. The optimized body model serves as a low-frequency prior that guides the subsequent surface reconstruction, where geometric details are added via normal map integration. MExECON integrates normal maps from both front and back views to accurately capture fine-grained surface details such as clothing folds and hairstyles. All multi-view gains are achieved without requiring any network re-training. Experimental results show that MExECON consistently improves fidelity over the single-view baseline and achieves competitive performance compared to modern few-shot 3D reconstruction methods.
- Abstract(参考訳): 本研究は, マルチビューRGB画像から, 布張りアバターを3次元再構成する新しいパイプラインであるMExECONを提示する。
MExECONは、単一ビュー法ECONに基づいて、複数の視点を活用する能力を拡張し、幾何学とボディポーズの推定を改善した。
パイプラインのコアとなるJMBOアルゴリズムは、全ての入力ビューに対して単一のSMPL-Xボディーモデルに適合し、マルチビューの一貫性を強制する。
最適化されたボディモデルは、後続の表面再構成をガイドする低周波の先行として機能し、幾何学的詳細は通常の地図積分によって追加される。
MExECONは、正面と背面の両方からの通常の地図を統合して、衣服の折り畳みやヘアスタイルのようなきめ細かい表面の詳細を正確に捉えている。
すべてのマルチビューゲインは、ネットワークの再トレーニングを必要とせずに達成される。
実験結果から,MExECONは単一視点ベースラインの忠実度を常に向上し,近代的な少数ショット3D再構成法と比較して競争性能が向上することが示された。
関連論文リスト
- MuGS: Multi-Baseline Generalizable Gaussian Splatting Reconstruction [13.941042770932794]
新規なビュー合成のためのフィードフォワードアプローチであるmulti-Baseline Gaussian Splatting(MuRF)を提案する。
MuRFは、複数のベースライン設定と多様なシナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-06T10:34:24Z) - FaceLift: Learning Generalizable Single Image 3D Face Reconstruction from Synthetic Heads [54.24070918942727]
1枚の画像から高画質の360度3Dヘッドを復元するための新しいフィードフォワードアプローチであるFaceLiftを提案する。
パイプラインはまずマルチビューの潜伏拡散モデルを用いて、1つの入力から一貫したサイドビューとバックビューを生成する。
FaceLiftは、アイデンティティ保存、ディテールリカバリ、レンダリング品質において、最先端の3D顔再構成方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-23T18:59:49Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - 360 Layout Estimation via Orthogonal Planes Disentanglement and Multi-view Geometric Consistency Perception [56.84921040837699]
既存のパノラマ配置推定ソリューションは、垂直圧縮されたシーケンスから部屋の境界を復元し、不正確な結果をもたらす傾向にある。
そこで本稿では,直交平面不整合ネットワーク(DOPNet)を提案し,あいまいな意味論を識別する。
また,水平深度と比表現に適した教師なし適応手法を提案する。
本手法は,単分子配置推定と多視点レイアウト推定の両タスクにおいて,他のSoTAモデルよりも優れる。
論文 参考訳(メタデータ) (2023-12-26T12:16:03Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Direct Multi-view Multi-person 3D Pose Estimation [138.48139701871213]
マルチビュー画像からマルチパーソン3Dポーズを推定するためのMulti-view Pose Transformer(MvP)を提案する。
MvPは、中間タスクに頼ることなく、複数の人物の3Dポーズを直接クリーンで効率的な方法で回帰する。
我々は,MvPモデルがより効率的でありながら,いくつかのベンチマークにおいて最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-07T13:09:20Z) - Weakly-Supervised Multi-Face 3D Reconstruction [45.864415499303405]
多面的3D再構築のための効果的なエンドツーエンドフレームワークを提案する。
各画像の再構成された顔に対して、同じグローバルカメラモデルを採用し、3dシーンにおける相対的な頭部位置と向きを復元することができる。
論文 参考訳(メタデータ) (2021-01-06T13:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。