論文の概要: Unifying Color and Lightness Correction with View-Adaptive Curve Adjustment for Robust 3D Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2602.18322v1
- Date: Fri, 20 Feb 2026 16:20:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.377052
- Title: Unifying Color and Lightness Correction with View-Adaptive Curve Adjustment for Robust 3D Novel View Synthesis
- Title(参考訳): ロバスト3次元新しいビュー合成のためのビュー適応曲線調整による色と光の補正
- Authors: Ziteng Cui, Shuhong Liu, Xiaoyu Dong, Xuangeng Chu, Lin Gu, Ming-Hsuan Yang, Tatsuya Harada,
- Abstract要約: 多様な照明条件下での堅牢なNVSのための3DGSベースのフレームワークであるLuminance-GS++を提案する。
本手法は,グローバルな視野適応光度調整と局所画素ワイド残差補正を組み合わせ,正確な色補正を行う。
- 参考スコア(独自算出の注目度): 73.27997579020233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-quality image acquisition in real-world environments remains challenging due to complex illumination variations and inherent limitations of camera imaging pipelines. These issues are exacerbated in multi-view capture, where differences in lighting, sensor responses, and image signal processor (ISP) configurations introduce photometric and chromatic inconsistencies that violate the assumptions of photometric consistency underlying modern 3D novel view synthesis (NVS) methods, including Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS), leading to degraded reconstruction and rendering quality. We propose Luminance-GS++, a 3DGS-based framework for robust NVS under diverse illumination conditions. Our method combines a globally view-adaptive lightness adjustment with a local pixel-wise residual refinement for precise color correction. We further design unsupervised objectives that jointly enforce lightness correction and multi-view geometric and photometric consistency. Extensive experiments demonstrate state-of-the-art performance across challenging scenarios, including low-light, overexposure, and complex luminance and chromatic variations. Unlike prior approaches that modify the underlying representation, our method preserves the explicit 3DGS formulation, improving reconstruction fidelity while maintaining real-time rendering efficiency.
- Abstract(参考訳): 実環境における高品質な画像取得は、複雑な照明のバリエーションとカメラ画像パイプライン固有の制限のため、依然として困難である。
これらの問題は、照明、センサー応答、画像信号プロセッサ(ISP)構成の違いにより、現代の3Dノベルビュー合成(NVS)法に基づく光度整合性(光度整合性)の仮定に反する光度整合性(光度整合性)や色相整合性(光度整合性)を導入し、ニューラルネットワーク(Neural Radiance Fields, NeRF)や3D Gaussian Splatting(3DGS)などにより、劣化した再構成とレンダリング品質をもたらすマルチビューキャプチャーにおいて悪化する。
多様な照明条件下での堅牢なNVSのための3DGSベースのフレームワークであるLuminance-GS++を提案する。
本手法は,グローバルな視野適応光度調整と局所画素ワイド残差補正を組み合わせ,正確な色補正を行う。
我々はさらに、光度補正と多視点幾何および光度整合性を共同で実施する教師なし目的を設計する。
大規模な実験では、低照度、過剰露光、複雑な輝度と色の変化など、挑戦的なシナリオにまたがる最先端のパフォーマンスが実証されている。
基礎となる表現を改良する従来の手法とは異なり,提案手法は明示的な3DGSの定式化を保ち,リアルタイムのレンダリング効率を維持しながら再現精度を向上させる。
関連論文リスト
- Beyond Darkness: Thermal-Supervised 3D Gaussian Splatting for Low-Light Novel View Synthesis [15.288134634021139]
非常に低照度な条件下では、新しいビュー合成(NVS)は幾何、色調、ラジオメトリック安定性の点で深刻な劣化に直面している。
本稿では,レチネックスにインスパイアされた照明分解と熱誘導型3次元ガウス散乱を密結合した統合フレームワークDTGSを提案する。
論文 参考訳(メタデータ) (2025-11-17T06:12:53Z) - Moving Light Adaptive Colonoscopy Reconstruction via Illumination-Attenuation-Aware 3D Gaussian Splatting [35.37461816543526]
3D Gaussian Splatting (3DGS) は, 大腸内視鏡におけるリアルタイム視線合成の重要技術として出現している。
しかし、バニラ3DGSは静止照明を仮定し、観測された外観は視角のみに依存する。
このミスマッチは、ほとんどの3DGS法に、カメラと組織の間に、構造に違反するガウスの塊を導入するよう強制する。
大腸内視鏡に適した改良型3DGSフレームワークであるColIAGSを提案する。
論文 参考訳(メタデータ) (2025-10-21T15:44:23Z) - LightQANet: Quantized and Adaptive Feature Learning for Low-Light Image Enhancement [65.06462316546806]
低照度画像強調は、高品質な色とテクスチャを維持しながら照明を改善することを目的としている。
既存の手法では、低照度条件下での画素レベルの情報劣化により、信頼性の高い特徴表現の抽出に失敗することが多い。
低照度向上のための量子化・適応型特徴学習を実現する新しいフレームワークLightQANetを提案する。
論文 参考訳(メタデータ) (2025-10-16T14:54:42Z) - Dark-EvGS: Event Camera as an Eye for Radiance Field in the Dark [51.68144172958247]
そこで我々はDark-EvGSを提案する。Dark-EvGSは、任意の視点から明るいフレームを復元できる3D GSフレームワークである。
提案手法は,低照度条件下での放射場再構成を克服し,既存の手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2025-07-16T05:54:33Z) - Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis [49.67420486373202]
GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:47Z) - Luminance-GS: Adapting 3D Gaussian Splatting to Challenging Lighting Conditions with View-Adaptive Curve Adjustment [46.60106452798745]
3DGSを用いた照明条件下での高品質な新規ビュー合成を実現するための新しいアプローチであるLuminance-GSを紹介する。
ビューごとのカラーマトリクスマッピングとビュー適応曲線調整を採用することで、Luminance-GSは様々な照明条件でSOTA(State-of-the-art)結果を達成する。
以前のNeRFおよび3DGSベースのベースラインと比較して、Luminance-GSは再現性を改善したリアルタイムレンダリング速度を提供する。
論文 参考訳(メタデータ) (2025-04-02T08:54:57Z) - PEP-GS: Perceptually-Enhanced Precise Structured 3D Gaussians for View-Adaptive Rendering [3.1006820631993515]
3D Gaussian Splatting (3D-GS)はリアルタイムで高品質な3Dシーンレンダリングにおいて大きな成功を収めた。
PEP-GSは、不透明度、色、共分散を含むガウス属性を動的に予測する知覚的に強化されたフレームワークである。
我々はPEP-GSが最先端の手法、特にビュー依存効果や細かな詳細を含む挑戦的なシナリオにおいて優れていることを示す。
論文 参考訳(メタデータ) (2024-11-08T17:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。