論文の概要: OAHuman: Occlusion-Aware 3D Human Reconstruction from Monocular Images
- arxiv url: http://arxiv.org/abs/2603.14249v1
- Date: Sun, 15 Mar 2026 06:57:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.699204
- Title: OAHuman: Occlusion-Aware 3D Human Reconstruction from Monocular Images
- Title(参考訳): OAHuman:モノクロ画像からの3D人間の再構築を意識したOAHuman
- Authors: Yuanwang Yang, Hongliang Liu, Muxin Zhang, Nan Ma, Jingyu Yang, Yu-Kun Lai, Kun Li,
- Abstract要約: OAHumanは、単一のRGB画像から堅牢な3次元モデリングのための幾何学的再構成とテクスチャ合成を明示的に分離するフレームワークである。
テクスチャ干渉から切り離すため, 閉鎖領域においても幾何再構成が知覚的に強化されることを保証する。
並行して、テクスチャ合成は目に見える領域からのみ学習され、テクスチャエラーが隠された領域に転送されるのを防ぐ。
- 参考スコア(独自算出の注目度): 49.90475154034411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular 3D human reconstruction in real-world scenarios remains highly challenging due to frequent occlusions from surrounding objects, people, or image truncation. Such occlusions lead to missing geometry and unreliable appearance cues, severely degrading the completeness and realism of reconstructed human models. Although recent neural implicit methods achieve impressive results on clean inputs, they struggle under occlusion due to entangled modeling of shape and texture. In this paper, we propose OAHuman, an occlusion-aware framework that explicitly decouples geometry reconstruction and texture synthesis for robust 3D human modeling from a single RGB image. The core innovation lies in the decoupling-perception paradigm, which addresses the fundamental issue of geometry-texture cross-contamination in occluded regions. Our framework ensures that geometry reconstruction is perceptually reinforced even in occluded areas, isolating it from texture interference. In parallel, texture synthesis is learned exclusively from visible regions, preventing texture errors from being transferred to the occluded areas. This decoupling approach enables OAHuman to achieve robust and high-fidelity reconstruction under occlusion, which has been a long-standing challenge in the field. Extensive experiments on occlusion-rich benchmarks demonstrate that OAHuman achieves superior performance in terms of structural completeness, surface detail, and texture realism, significantly improving monocular 3D human reconstruction under occlusion conditions.
- Abstract(参考訳): 現実世界のシナリオでは、周囲の物体、人、画像の切り離しが頻繁に発生するため、単眼の3D人間の再構築は非常に困難である。
このような閉塞は、幾何学の欠如と信頼できない外観の手がかりをもたらし、再構成された人間のモデルの完全性とリアリズムを著しく劣化させる。
最近のニューラル暗黙法はクリーンな入力に対して印象的な結果をもたらすが、形状とテクスチャの絡み合ったモデリングのため、隠蔽状態に苦しむ。
本稿では,1枚のRGB画像からロバストな3次元人体モデリングのための幾何学的再構成とテクスチャ合成を明確に分離するオクルージョン対応フレームワークであるOAHumanを提案する。
中心となる革新は疎結合・パーセプションパラダイム(英語版)にあり、閉鎖領域における幾何・テクスチュア・クロス汚染の根本的な問題に対処する。
筆者らの枠組みは,閉鎖領域においても幾何再構成が知覚的に強化されることを保証し,テクスチャ干渉から分離する。
並行して、テクスチャ合成は目に見える領域からのみ学習され、テクスチャエラーが隠された領域に転送されるのを防ぐ。
このデカップリングアプローチにより、OAHumanは閉鎖下で頑健で高忠実な再構成を達成できる。
OAHumanは,OAHumanの構造的完全性,表面細部,テクスチャリアリズムの面で優れた性能を示し,咬合条件下での単分子的3次元再構築を著しく改善した。
関連論文リスト
- InpaintHuman: Reconstructing Occluded Humans with Multi-Scale UV Mapping and Identity-Preserving Diffusion Inpainting [64.42884719282323]
InpaintHumanは、モノクロビデオから高忠実で完全でアニマタブルなアバターを生成する新しい方法である。
我々のアプローチは、アイデンティティの忠実性を保証するために、直接ピクセルレベルの監視を採用する。
論文 参考訳(メタデータ) (2026-01-05T13:26:02Z) - Joint Geometry-Appearance Human Reconstruction in a Unified Latent Space via Bridge Diffusion [57.09673862519791]
本稿では,幾何学と外観のモデリングを結合潜在表現に統一する新しいフレームワークである textbfJGA-LBD を紹介する。
実験により、JGA-LBDは、幾何学的忠実度と外観品質の両方の観点から、現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2026-01-01T12:48:56Z) - DeOcc-1-to-3: 3D De-Occlusion from a Single Image via Self-Supervised Multi-View Diffusion [50.90541069907167]
閉塞型マルチビュー生成のためのエンドツーエンドフレームワークであるDeOcc-1-to-3を提案する。
私たちの自己教師型トレーニングパイプラインは、隠蔽されたイメージペアと擬似地上構造ビューを活用して、モデル構造を意識した補完とビュー整合性を教える。
論文 参考訳(メタデータ) (2025-06-26T17:58:26Z) - CHROME: Clothed Human Reconstruction with Occlusion-Resilience and Multiview-Consistency from a Single Image [37.16845070245751]
我々は,1つの隠蔽画像から複数視点の整合性を持つ3次元人体を再構成するための新しいパイプラインを提案する。
そして、3次元再構成モデルを用いて、隠蔽された入力と合成されたビューの両方に条件付き3次元ガウスの集合を予測する。
新規なビュー合成(最大3dbPSNR)と、挑戦的な条件下での幾何学的再構成の両方において、大幅な改善が達成されている。
論文 参考訳(メタデータ) (2025-03-19T19:56:18Z) - Realistic Clothed Human and Object Joint Reconstruction from a Single Image [26.57698106821237]
モノクラービューからリアルな3D衣服と物体を共同で再構築するための新しい暗黙のアプローチを導入する。
初めて、私たちは暗黙の表現で人間と物体の両方をモデル化し、衣服のようなより現実的な詳細を捉えます。
論文 参考訳(メタデータ) (2025-02-25T12:26:36Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - ReFu: Refine and Fuse the Unobserved View for Detail-Preserving
Single-Image 3D Human Reconstruction [31.782985891629448]
シングルイメージの3次元再構成は,1枚の画像から人体の3次元テクスチャ面を再構築することを目的としている。
提案するReFuは、投影された背景像を精細化し、その精細な画像を融合して最終人体を予測するための粗大なアプローチである。
論文 参考訳(メタデータ) (2022-11-09T09:14:11Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。