論文の概要: LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2504.10331v2
- Date: Tue, 15 Apr 2025 15:06:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:10:16.116239
- Title: LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis
- Title(参考訳): LL-Gaussian:Gaussian Splattingによる新しいビュー合成のための低照度シーン再構成と拡張
- Authors: Hao Sun, Fenggen Yu, Huiyao Xu, Tao Zhang, Changqing Zou,
- Abstract要約: 低照度シーンにおける新しいビュー合成(NVS)は、劣化した入力のために重要な課題である。
低照度sRGB画像からの3次元再構成と拡張のための新しいフレームワークであるLL-Gaussianを提案する。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮する。
- 参考スコア(独自算出の注目度): 17.470869402542533
- License:
- Abstract: Novel view synthesis (NVS) in low-light scenes remains a significant challenge due to degraded inputs characterized by severe noise, low dynamic range (LDR) and unreliable initialization. While recent NeRF-based approaches have shown promising results, most suffer from high computational costs, and some rely on carefully captured or pre-processed data--such as RAW sensor inputs or multi-exposure sequences--which severely limits their practicality. In contrast, 3D Gaussian Splatting (3DGS) enables real-time rendering with competitive visual fidelity; however, existing 3DGS-based methods struggle with low-light sRGB inputs, resulting in unstable Gaussian initialization and ineffective noise suppression. To address these challenges, we propose LL-Gaussian, a novel framework for 3D reconstruction and enhancement from low-light sRGB images, enabling pseudo normal-light novel view synthesis. Our method introduces three key innovations: 1) an end-to-end Low-Light Gaussian Initialization Module (LLGIM) that leverages dense priors from learning-based MVS approach to generate high-quality initial point clouds; 2) a dual-branch Gaussian decomposition model that disentangles intrinsic scene properties (reflectance and illumination) from transient interference, enabling stable and interpretable optimization; 3) an unsupervised optimization strategy guided by both physical constrains and diffusion prior to jointly steer decomposition and enhancement. Additionally, we contribute a challenging dataset collected in extreme low-light environments and demonstrate the effectiveness of LL-Gaussian. Compared to state-of-the-art NeRF-based methods, LL-Gaussian achieves up to 2,000 times faster inference and reduces training time to just 2%, while delivering superior reconstruction and rendering quality.
- Abstract(参考訳): 低照度シーンにおける新しいビュー合成(NVS)は、強騒音、低ダイナミックレンジ(LDR)、信頼できない初期化を特徴とする劣化した入力により、依然として重要な課題である。
最近のNeRFベースのアプローチは有望な結果を示しているが、そのほとんどは高い計算コストに悩まされており、RAWセンサー入力やマルチ露光シーケンスなど、注意深くキャプチャされた、あるいは事前処理されたデータに依存しているものもある。
対照的に、3D Gaussian Splatting (3DGS)は、競合する視覚的忠実度でリアルタイムレンダリングを可能にするが、既存の3DGSベースの手法は低照度sRGB入力と競合し、不安定なガウス初期化と非効率なノイズ抑圧をもたらす。
LL-Gaussianは,低照度sRGB画像からの3次元再構成と高精細化のための新しいフレームワークである。
我々の手法は3つの重要な革新をもたらす。
1) 学習ベースのMVSアプローチから高品質な初期点雲を生成するために、高密度の事前情報を利用するエンドツーエンドの低光ガウス初期化モジュール(LLGIM)。
2) 固有シーン特性(反射と照明)を過渡的干渉から切り離し、安定かつ解釈可能な最適化を可能にする二重分岐ガウス分解モデル。
3) 共同ステア分解・強化に先立って, 物理的制約と拡散の両面から導かれる教師なし最適化戦略。
さらに,超低照度環境下で収集された挑戦的なデータセットを寄贈し,LL-Gaussianの有効性を実証した。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮し、より優れた再構築とレンダリング品質を提供する。
関連論文リスト
- Reflective Gaussian Splatting [36.111845416439095]
本稿では2つの成分を特徴とする反射ガウススプラッティング(Ref-Gaussian)フレームワークを提案する。
Ref-Gaussianは、定量的メトリクス、視覚的品質、計算効率の点で、既存のアプローチを超越している。
また、Ref-Gaussianは、リライトや編集など、より多くのアプリケーションをサポートしています。
論文 参考訳(メタデータ) (2024-12-26T16:58:35Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Binocular-Guided 3D Gaussian Splatting with View Consistency for Sparse View Synthesis [53.702118455883095]
本稿では,ガウススプラッティングを用いたスパースビューから新しいビューを合成する新しい手法を提案する。
私たちのキーとなるアイデアは、両眼画像間の両眼立体的一貫性に固有の自己超越を探索することにあります。
我々の手法は最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-10-24T15:10:27Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - LoopSparseGS: Loop Based Sparse-View Friendly Gaussian Splatting [18.682864169561498]
LoopSparseGSは、疎結合なビュー合成タスクのためのループベースの3DGSフレームワークである。
Sparse-Friended Smpling (SFS) 戦略を導入し,ガウス楕円体を過剰に処理し,画素誤差が大きくなった。
4つのデータセットの実験により、LoopSparseGSはスパース・インプット・ノベルビューの合成において既存の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-01T03:26:50Z) - Ev-GS: Event-based Gaussian splatting for Efficient and Accurate Radiance Field Rendering [8.329155841947003]
単眼イベントカメラから3次元ガウススプラッティングを推定する最初のCNIインフォームドスキームであるEv-GSを紹介する。
Ev-GSは、ぼかしを減らし、視覚的品質を改善したリアルなビューをレンダリングすることで、フレームベースの信号を入力として取り出す手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-07-16T03:15:13Z) - Wild-GS: Real-Time Novel View Synthesis from Unconstrained Photo Collections [30.321151430263946]
本稿では、制約のない写真コレクションに最適化された3DGSの革新的な適応であるWild-GSについて述べる。
Wild-GSは、それぞれの3Dガウスの出現を、その固有の材料特性、大域照明と画像当たりのカメラ特性、反射率の点レベルの局所的ばらつきによって決定する。
この斬新な設計は、参照ビューの高周波詳細外観を3次元空間に効果的に転送し、トレーニングプロセスを大幅に高速化する。
論文 参考訳(メタデータ) (2024-06-14T19:06:07Z) - Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。