論文の概要: LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2504.10331v3
- Date: Sat, 19 Apr 2025 12:09:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 12:10:52.434331
- Title: LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis
- Title(参考訳): LL-Gaussian:Gaussian Splattingによる新しいビュー合成のための低照度シーン再構成と拡張
- Authors: Hao Sun, Fenggen Yu, Huiyao Xu, Tao Zhang, Changqing Zou,
- Abstract要約: 低照度シーンにおける新しいビュー合成(NVS)は、劣化した入力のために重要な課題である。
低照度sRGB画像からの3次元再構成と拡張のための新しいフレームワークであるLL-Gaussianを提案する。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮する。
- 参考スコア(独自算出の注目度): 17.470869402542533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel view synthesis (NVS) in low-light scenes remains a significant challenge due to degraded inputs characterized by severe noise, low dynamic range (LDR) and unreliable initialization. While recent NeRF-based approaches have shown promising results, most suffer from high computational costs, and some rely on carefully captured or pre-processed data--such as RAW sensor inputs or multi-exposure sequences--which severely limits their practicality. In contrast, 3D Gaussian Splatting (3DGS) enables real-time rendering with competitive visual fidelity; however, existing 3DGS-based methods struggle with low-light sRGB inputs, resulting in unstable Gaussian initialization and ineffective noise suppression. To address these challenges, we propose LL-Gaussian, a novel framework for 3D reconstruction and enhancement from low-light sRGB images, enabling pseudo normal-light novel view synthesis. Our method introduces three key innovations: 1) an end-to-end Low-Light Gaussian Initialization Module (LLGIM) that leverages dense priors from learning-based MVS approach to generate high-quality initial point clouds; 2) a dual-branch Gaussian decomposition model that disentangles intrinsic scene properties (reflectance and illumination) from transient interference, enabling stable and interpretable optimization; 3) an unsupervised optimization strategy guided by both physical constrains and diffusion prior to jointly steer decomposition and enhancement. Additionally, we contribute a challenging dataset collected in extreme low-light environments and demonstrate the effectiveness of LL-Gaussian. Compared to state-of-the-art NeRF-based methods, LL-Gaussian achieves up to 2,000 times faster inference and reduces training time to just 2%, while delivering superior reconstruction and rendering quality.
- Abstract(参考訳): 低照度シーンにおける新しいビュー合成(NVS)は、強騒音、低ダイナミックレンジ(LDR)、信頼できない初期化を特徴とする劣化した入力により、依然として重要な課題である。
最近のNeRFベースのアプローチは有望な結果を示しているが、そのほとんどは高い計算コストに悩まされており、RAWセンサー入力やマルチ露光シーケンスなど、注意深くキャプチャされた、あるいは事前処理されたデータに依存しているものもある。
対照的に、3D Gaussian Splatting (3DGS)は、競合する視覚的忠実度でリアルタイムレンダリングを可能にするが、既存の3DGSベースの手法は低照度sRGB入力と競合し、不安定なガウス初期化と非効率なノイズ抑圧をもたらす。
LL-Gaussianは,低照度sRGB画像からの3次元再構成と高精細化のための新しいフレームワークである。
我々の手法は3つの重要な革新をもたらす。
1) 学習ベースのMVSアプローチから高品質な初期点雲を生成するために、高密度の事前情報を利用するエンドツーエンドの低光ガウス初期化モジュール(LLGIM)。
2) 固有シーン特性(反射と照明)を過渡的干渉から切り離し、安定かつ解釈可能な最適化を可能にする二重分岐ガウス分解モデル。
3) 共同ステア分解・強化に先立って, 物理的制約と拡散の両面から導かれる教師なし最適化戦略。
さらに,超低照度環境下で収集された挑戦的なデータセットを寄贈し,LL-Gaussianの有効性を実証した。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮し、より優れた再構築とレンダリング品質を提供する。
関連論文リスト
- Diffusion-Guided Gaussian Splatting for Large-Scale Unconstrained 3D Reconstruction and Novel View Synthesis [22.767866875051013]
本稿では,現行手法の限界に対処する多視点拡散モデルを用いて,新しい3DGSフレームワークであるGS-Diffを提案する。
マルチビュー入力に条件付き擬似観測を生成することにより、制約の少ない3次元再構成問題をよく表されたものに変換する。
4つのベンチマークの実験では、GS-Diffは最先端のベースラインをかなりのマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2025-04-02T17:59:46Z) - LITA-GS: Illumination-Agnostic Novel View Synthesis via Reference-Free 3D Gaussian Splatting and Physical Priors [14.160637565120231]
LITA-GSは、参照不要な3DGSおよび物理前駆体を用いた、照度に依存しない新規なビュー合成法である。
我々は、シーン構造とオブジェクトの外観の最適化を容易にする照明に依存しない構造描画戦略を開発した。
我々はLITA-GSの訓練のための教師なし戦略を採用し、LITA-GSが最先端(SOTA)のNeRF法を超越していることを示す広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-31T20:44:39Z) - LLGS: Unsupervised Gaussian Splatting for Image Enhancement and Reconstruction in Pure Dark Environment [18.85235185556243]
本稿では3次元ガウス散乱に基づく教師なし多視点立体視システムを提案する。
本システムは、シーンを再構成しながら、低照度環境における画像の高精細化を目的としている。
実世界のデータセットを用いて行った実験により、我々のシステムは低照度化と3次元ガウススプラッティングの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-03-24T13:05:05Z) - Uncertainty-Aware Normal-Guided Gaussian Splatting for Surface Reconstruction from Sparse Image Sequences [21.120659841877508]
3D Gaussian Splatting (3DGS)は、新規なビュー合成において印象的なレンダリング性能を達成した。
3DGSパイプライン内の幾何的不確かさを定量化するために,不確かさを意識した正規誘導型ガウス格子(UNG-GS)を提案する。
UNG-GSはスパース配列と高密度シーケンスの両方で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-03-14T08:18:12Z) - MuDG: Taming Multi-modal Diffusion with Gaussian Splatting for Urban Scene Reconstruction [44.592566642185425]
MuDGはマルチモーダル拡散モデルとガウススプラッティング(GS)を統合した革新的なフレームワークである。
我々は,MDGが再現性および光現実性合成品質の両方において,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-13T17:48:41Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Binocular-Guided 3D Gaussian Splatting with View Consistency for Sparse View Synthesis [53.702118455883095]
本稿では,ガウススプラッティングを用いたスパースビューから新しいビューを合成する新しい手法を提案する。
私たちのキーとなるアイデアは、両眼画像間の両眼立体的一貫性に固有の自己超越を探索することにあります。
我々の手法は最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-10-24T15:10:27Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。