論文の概要: A 3DGS-Diffusion Self-Supervised Framework for Normal Estimation from a Single Image
- arxiv url: http://arxiv.org/abs/2508.05950v1
- Date: Fri, 08 Aug 2025 02:32:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.049158
- Title: A 3DGS-Diffusion Self-Supervised Framework for Normal Estimation from a Single Image
- Title(参考訳): 単一画像からの正規推定のための3DGS拡散自己監督フレームワーク
- Authors: Yanxing Liang, Yinghui Wang, Jinlong Yang, Wei Li,
- Abstract要約: 空間次元情報の欠如は、単一画像からの正規推定において依然として課題である。
近年の拡散法は2次元から3次元の暗黙マッピングにおいて有意なポテンシャルを示した。
本稿では,SINGADを提案する。SINGADは,単一画像から正規推定のための新しい自己教師型フレームワークである。
- 参考スコア(独自算出の注目度): 5.588610465556571
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of spatial dimensional information remains a challenge in normal estimation from a single image. Recent diffusion-based methods have demonstrated significant potential in 2D-to-3D implicit mapping, they rely on data-driven statistical priors and miss the explicit modeling of light-surface interaction, leading to multi-view normal direction conflicts. Moreover, the discrete sampling mechanism of diffusion models causes gradient discontinuity in differentiable rendering reconstruction modules, preventing 3D geometric errors from being backpropagated to the normal generation network, thereby forcing existing methods to depend on dense normal annotations. This paper proposes SINGAD, a novel Self-supervised framework from a single Image for Normal estimation via 3D GAussian splatting guided Diffusion. By integrating physics-driven light-interaction modeling and a differentiable rendering-based reprojection strategy, our framework directly converts 3D geometric errors into normal optimization signals, solving the challenges of multi-view geometric inconsistency and data dependency. Specifically, the framework constructs a light-interaction-driven 3DGS reparameterization model to generate multi-scale geometric features consistent with light transport principles, ensuring multi-view normal consistency. A cross-domain feature fusion module is designed within a conditional diffusion model, embedding geometric priors to constrain normal generation while maintaining accurate geometric error propagation. Furthermore, a differentiable 3D reprojection loss strategy is introduced for self-supervised optimization that minimizes geometric error between the reconstructed and input image, eliminating dependence on annotated normal datasets. Quantitative evaluations on the Google Scanned Objects dataset demonstrate that our method outperforms state-of-the-art approaches across multiple metrics.
- Abstract(参考訳): 空間次元情報の欠如は、単一画像からの正規推定において依然として課題である。
最近の拡散法は2D-to-3Dの暗黙マッピングにおいて有意なポテンシャルを示しており、それらはデータ駆動の統計的先行に頼り、光表面相互作用の明示的なモデリングを見逃し、多視点の正規方向衝突を招いている。
さらに、拡散モデルの離散サンプリング機構は、微分可能なレンダリング再構成モジュールの勾配不連続を引き起こし、3次元幾何誤差が正規生成ネットワークに逆伝搬されることを防止し、既存の手法を高密度な正規アノテーションに依存するように強制する。
本稿では,SINGADを提案する。SINGADは1つの画像から3次元ガウススプレイティングガイド付き拡散による正規化を行うためのフレームワークである。
物理駆動の光相互作用モデリングと微分可能なレンダリングベースの再射戦略を統合することで、3次元幾何学的誤りを直接正規の最適化信号に変換し、多視点幾何学的不整合とデータ依存の課題を解決する。
具体的には、光相互作用駆動の3DGS再パラメータ化モデルを構築し、光輸送原理に整合したマルチスケールな幾何学的特徴を生成し、マルチビューの正規整合性を確保する。
クロスドメイン機能融合モジュールは条件付き拡散モデル内に設計され、正確な幾何学的誤差伝搬を維持しつつ、正規生成を制限するために幾何学的事前を埋め込む。
さらに、再構成画像と入力画像の間の幾何誤差を最小限に抑え、注釈付き正規データセットへの依存をなくし、自己教師付き最適化のために、微分可能な3次元再投影損失戦略を導入する。
Google Scanned Objectsデータセットの定量的評価は、我々の手法が複数のメトリクスにわたって最先端のアプローチより優れていることを示している。
関連論文リスト
- Sparse-View 3D Reconstruction: Recent Advances and Open Challenges [0.8583178253811411]
濃密な画像取得が不可能なアプリケーションには,スパースビュー3D再構成が不可欠である。
この調査は、ニューラル暗黙のモデルと明示的なポイントクラウドベースのアプローチの最新の進歩をレビューする。
我々は, 幾何正規化, 明示的な形状モデリング, 生成的推論がアーティファクトの緩和にどのように利用されているかを分析する。
論文 参考訳(メタデータ) (2025-07-22T09:57:28Z) - DiMeR: Disentangled Mesh Reconstruction Model [29.827345186012558]
DiMeRは、疎視メッシュ再構成のための3次元監視を備えた、幾何学的・テクスチュアなアンタングルフィードフォワードモデルである。
性能/コストの低いモジュールを排除し,正規化損失を再設計し,メッシュ抽出のアルゴリズムを効率化する。
大規模な実験により、DiMeRはスパースビュー、シングルイメージ、テキストから3Dタスクにまたがって一般化し、ベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2025-04-24T15:39:20Z) - DiHuR: Diffusion-Guided Generalizable Human Reconstruction [51.31232435994026]
一般化可能なヒト3次元再構成のための拡散誘導モデルであるDiHuRを導入し,スパース・ミニマル・オーバーラップ画像からのビュー合成について述べる。
提案手法は, 一般化可能なフィードフォワードモデルと2次元拡散モデルとの2つのキー前処理をコヒーレントな方法で統合する。
論文 参考訳(メタデータ) (2024-11-16T03:52:23Z) - R3D-AD: Reconstruction via Diffusion for 3D Anomaly Detection [12.207437451118036]
3次元異常検出は、精密製造における局所固有の欠陥のモニタリングにおいて重要な役割を担っている。
埋め込みベースおよび再構築ベースのアプローチは、最も人気があり、成功した方法の一つである。
本稿では, 高精度な3次元異常検出のための拡散モデルにより, 異常点雲を再構成するR3D-ADを提案する。
論文 参考訳(メタデータ) (2024-07-15T16:10:58Z) - GeoWizard: Unleashing the Diffusion Priors for 3D Geometry Estimation from a Single Image [94.56927147492738]
単一画像から幾何学的属性を推定するための新しい生成基盤モデルであるGeoWizardを紹介する。
拡散前処理の活用は,資源利用における一般化,詳細な保存,効率性を著しく向上させることが示唆された。
本稿では,様々なシーンの複雑なデータ分布を,個別のサブディストリビューションに分離する,シンプルかつ効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-03-18T17:50:41Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Normal Transformer: Extracting Surface Geometry from LiDAR Points Enhanced by Visual Semantics [7.507853813361308]
本稿では,LiDARとカメラセンサから得られた3次元点雲と2次元カラー画像を利用して表面正規化を行うマルチモーダル手法を提案する。
本稿では,視覚的意味論と3次元幾何学的情報を巧みに融合した,トランスフォーマーに基づくニューラルネットワークアーキテクチャを提案する。
交通シーンを模倣したシミュレーション3D環境から,提案モデルが学習可能であることが確認された。
論文 参考訳(メタデータ) (2022-11-19T03:55:09Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。