論文の概要: Fast Low-light Enhancement and Deblurring for 3D Dark Scenes
- arxiv url: http://arxiv.org/abs/2603.08133v1
- Date: Mon, 09 Mar 2026 09:11:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.727428
- Title: Fast Low-light Enhancement and Deblurring for 3D Dark Scenes
- Title(参考訳): 3次元暗所の高速低照度化と劣化
- Authors: Feng Zhang, Jinglong Wang, Ze Li, Yanghong Zhou, Yang Chen, Lei Chen, Xiatian Zhu,
- Abstract要約: FLED-GSは、3Dシーンの復元を拡張・再構成の交互サイクルとして再構成する高速な低照度化・デブロアリングフレームワークである。
実験では、FLED-GSは最先端のLuSh-NeRFより優れており、21$times$高速トレーニング、11$times$高速レンダリングを実現している。
- 参考スコア(独自算出の注目度): 52.48996928600807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Novel view synthesis from low-light, noisy, and motion-blurred imagery remains a valuable and challenging task. Current volumetric rendering methods struggle with compound degradation, and sequential 2D preprocessing introduces artifacts due to interdependencies. In this work, we introduce FLED-GS, a fast low-light enhancement and deblurring framework that reformulates 3D scene restoration as an alternating cycle of enhancement and reconstruction. Specifically, FLED-GS inserts several intermediate brightness anchors to enable progressive recovery, preventing noise blow-up from harming deblurring or geometry. Each iteration sharpens inputs with an off-the-shelf 2D deblurrer and then performs noise-aware 3DGS reconstruction that estimates and suppresses noise while producing clean priors for the next level. Experiments show FLED-GS outperforms state-of-the-art LuSh-NeRF, achieving 21$\times$ faster training and 11$\times$ faster rendering.
- Abstract(参考訳): 低照度、騒々しく、動きに満ちた画像から新しいビュー合成は、価値があり、挑戦的な課題である。
現在の体積レンダリング法は複合劣化に苦慮しており、逐次2次元前処理は相互依存によるアーティファクトを導入している。
本研究では, 高速低照度化とデブロアリングの枠組みであるFLED-GSを紹介する。
具体的には、FLED-GSはいくつかの中間輝度アンカーを挿入し、進行回復を可能にし、ノイズの吹き上げが劣化や幾何学を損なうのを防ぐ。
各イテレーションは、オフザシェルフ2Dデブロワーで入力をシャープし、次にノイズ認識3DGS再構成を行い、次のレベルのクリーンな事前情報を生成しながら、ノイズを推定し、抑制する。
FLED-GSは最先端のLuSh-NeRFより優れており、21$\times$高速トレーニング、11$\times$高速レンダリングを実現している。
関連論文リスト
- Dark-EvGS: Event Camera as an Eye for Radiance Field in the Dark [51.68144172958247]
そこで我々はDark-EvGSを提案する。Dark-EvGSは、任意の視点から明るいフレームを復元できる3D GSフレームワークである。
提案手法は,低照度条件下での放射場再構成を克服し,既存の手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2025-07-16T05:54:33Z) - LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis [17.470869402542533]
低照度シーンにおける新しいビュー合成(NVS)は、劣化した入力のために重要な課題である。
低照度sRGB画像からの3次元再構成と拡張のための新しいフレームワークであるLL-Gaussianを提案する。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮する。
論文 参考訳(メタデータ) (2025-04-14T15:39:31Z) - S3R-GS: Streamlining the Pipeline for Large-Scale Street Scene Reconstruction [58.37746062258149]
3D Gaussian Splatting(3DGS)は、3D再構成の分野を変え、素晴らしいレンダリング品質とスピードを実現した。
既存の手法では、シーンサイズが大きくなるにつれて、ビューポイント当たりの再生コストが急速に増大する。
大規模なストリートシーン再構築のためのパイプラインをストリーム化する3DGSフレームワークであるS3R-GSを提案する。
論文 参考訳(メタデータ) (2025-03-11T09:37:13Z) - HDRSplat: Gaussian Splatting for High Dynamic Range 3D Scene Reconstruction from Raw Images [14.332077246864628]
3D Gaussian Splatting(3DGS)は、3Dシーンの再現空間に革命をもたらし、高忠実なノベルビューをリアルタイムで実現した。
しかし,従来の3DGS法とNeRF法では8ビットトーンマップの低ダイナミックレンジ画像がシーン再構成に利用されている。
提案手法は,14ビットの直線的原像を暗黒付近で直接トレーニングし,シーンの全ダイナミックレンジと内容を保存する。
論文 参考訳(メタデータ) (2024-07-23T14:21:00Z) - Lighting Every Darkness with 3DGS: Fast Training and Real-Time Rendering for HDR View Synthesis [35.81034036380374]
ボリュームレンダリングに基づく手法は、特に夜間シーンにおいてRAWimagesからのHDRビュー合成に優れる。
長いトレーニング時間に悩まされており、サンプリング要求が密集しているためリアルタイムレンダリングを行うことができない。
3D Gaussian Splatting(3DGS)の登場により、リアルタイムレンダリングと高速なトレーニングが可能になる。
これらの設計により、LE3Dはリアルタイムのノベルビュー合成、HDRレンダリング、リフォーカス、トーンマッピングなどを行うことができる。
論文 参考訳(メタデータ) (2024-06-10T12:33:08Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Low-Light Video Enhancement with Synthetic Event Guidance [188.7256236851872]
我々は、複数のフレームから合成イベントを使用して、低照度ビデオの強化と復元を誘導する。
本手法は,合成と実の両方のLLVEデータセットにおいて,既存の低照度映像や単一画像強調手法より優れる。
論文 参考訳(メタデータ) (2022-08-23T14:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。