論文の概要: SplatBright: Generalizable Low-Light Scene Reconstruction from Sparse Views via Physically-Guided Gaussian Enhancement
- arxiv url: http://arxiv.org/abs/2512.18655v1
- Date: Sun, 21 Dec 2025 09:06:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.438324
- Title: SplatBright: Generalizable Low-Light Scene Reconstruction from Sparse Views via Physically-Guided Gaussian Enhancement
- Title(参考訳): SplatBright: 物理的誘導型ガウス拡張によるスパースビューからの一般化可能な低照度シーン再構成
- Authors: Yue Wen, Liang Song, Hesheng Wang,
- Abstract要約: SplatBrightは、スパースsRGB入力からのジョイントローライト拡張と再構成のための最初の一般化可能な3Dガウスフレームワークである。
我々のキーとなる考え方は、物理的に誘導された照明モデリングと幾何学的外観の疎結合を統合して、一貫した低照度再構成を行うことである。
SplatBright は2D と 3D の両方の手法と比較して、目立たない低照度シーンに優れた新規ビュー合成、クロスビュー一貫性、そしてより良い一般化を実現している。
- 参考スコア(独自算出の注目度): 26.905118897488077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light 3D reconstruction from sparse views remains challenging due to exposure imbalance and degraded color fidelity. While existing methods struggle with view inconsistency and require per-scene training, we propose SplatBright, which is, to our knowledge, the first generalizable 3D Gaussian framework for joint low-light enhancement and reconstruction from sparse sRGB inputs. Our key idea is to integrate physically guided illumination modeling with geometry-appearance decoupling for consistent low-light reconstruction. Specifically, we adopt a dual-branch predictor that provides stable geometric initialization of 3D Gaussian parameters. On the appearance side, illumination consistency leverages frequency priors to enable controllable and cross-view coherent lighting, while an appearance refinement module further separates illumination, material, and view-dependent cues to recover fine texture. To tackle the lack of large-scale geometrically consistent paired data, we synthesize dark views via a physics-based camera model for training. Extensive experiments on public and self-collected datasets demonstrate that SplatBright achieves superior novel view synthesis, cross-view consistency, and better generalization to unseen low-light scenes compared with both 2D and 3D methods.
- Abstract(参考訳): 低照度3次元画像からの低照度3次元再構成は、露光不均衡と色質の劣化により依然として困難である。
既存の手法では、視線不整合に悩まされ、シーンごとの訓練を必要とするが、SplatBrightは、我々の知る限り、スパルスSRGB入力からの共用低照度向上と再構成のための最初の一般化可能な3Dガウスフレームワークである。
我々のキーとなる考え方は、物理的に誘導された照明モデリングと幾何学的外観の疎結合を統合して、一貫した低照度再構成を行うことである。
具体的には、3次元ガウスパラメータの安定な幾何初期化を提供する双分岐予測器を採用する。
外観側では、照明の整合性は周波数先行を利用して制御可能で横断的なコヒーレント照明を可能にし、外観改善モジュールはさらに照明、材料、ビュー依存のキューを分離して微細なテクスチャを回復させる。
大規模な幾何的一貫したペアリングデータの欠如に対処するために,物理カメラモデルを用いて暗視を合成してトレーニングを行う。
SplatBrightは、2Dと3Dの両方の手法と比較して、目立たない低照度シーンへの優れた新規ビュー合成、クロスビュー一貫性、そしてより良い一般化を実現している。
関連論文リスト
- Moving Light Adaptive Colonoscopy Reconstruction via Illumination-Attenuation-Aware 3D Gaussian Splatting [35.37461816543526]
3D Gaussian Splatting (3DGS) は, 大腸内視鏡におけるリアルタイム視線合成の重要技術として出現している。
しかし、バニラ3DGSは静止照明を仮定し、観測された外観は視角のみに依存する。
このミスマッチは、ほとんどの3DGS法に、カメラと組織の間に、構造に違反するガウスの塊を導入するよう強制する。
大腸内視鏡に適した改良型3DGSフレームワークであるColIAGSを提案する。
論文 参考訳(メタデータ) (2025-10-21T15:44:23Z) - From Restoration to Reconstruction: Rethinking 3D Gaussian Splatting for Underwater Scenes [13.730810237133822]
水中画像復元(UIR)を3次元ガウススプラッティング(DGS)でブリッジする統合フレームワークである textbfR-Splatting を提案する。
提案手法は,多様なUIRモデルによって生成された複数の拡張ビューを1つの再構築パイプラインに統合する。
Seathru-NeRFと新しいBlueCoral3Dデータセットの実験により、R-Splattingはレンダリング品質と幾何学的精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-22T13:50:20Z) - Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis [49.67420486373202]
GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:47Z) - MV-CoLight: Efficient Object Compositing with Consistent Lighting and Shadow Generation [19.46962637673285]
MV-CoLightは2Dおよび3Dシーンで合成される照度一貫性のあるオブジェクトのためのフレームワークである。
2次元画像入力と3次元ガウスシーン表現をシームレスに整列するために、ヒルベルト曲線に基づく写像を用いる。
実験では、標準ベンチマークとデータセット間で、最先端の調和した結果を実証した。
論文 参考訳(メタデータ) (2025-05-27T17:53:02Z) - LLGS: Unsupervised Gaussian Splatting for Image Enhancement and Reconstruction in Pure Dark Environment [18.85235185556243]
本稿では3次元ガウス散乱に基づく教師なし多視点立体視システムを提案する。
本システムは、シーンを再構成しながら、低照度環境における画像の高精細化を目的としている。
実世界のデータセットを用いて行った実験により、我々のシステムは低照度化と3次元ガウススプラッティングの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-03-24T13:05:05Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。