論文の概要: Luminance-GS: Adapting 3D Gaussian Splatting to Challenging Lighting Conditions with View-Adaptive Curve Adjustment
- arxiv url: http://arxiv.org/abs/2504.01503v2
- Date: Wed, 23 Apr 2025 15:06:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-24 20:25:50.82124
- Title: Luminance-GS: Adapting 3D Gaussian Splatting to Challenging Lighting Conditions with View-Adaptive Curve Adjustment
- Title(参考訳): Luminance-GS:ビューアダプティブカーブ調整による照明条件に3次元ガウススプラッティングを適応させる
- Authors: Ziteng Cui, Xuangeng Chu, Tatsuya Harada,
- Abstract要約: 3DGSを用いた照明条件下での高品質な新規ビュー合成を実現するための新しいアプローチであるLuminance-GSを紹介する。
ビューごとのカラーマトリクスマッピングとビュー適応曲線調整を採用することで、Luminance-GSは様々な照明条件でSOTA(State-of-the-art)結果を達成する。
以前のNeRFおよび3DGSベースのベースラインと比較して、Luminance-GSは再現性を改善したリアルタイムレンダリング速度を提供する。
- 参考スコア(独自算出の注目度): 46.60106452798745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capturing high-quality photographs under diverse real-world lighting conditions is challenging, as both natural lighting (e.g., low-light) and camera exposure settings (e.g., exposure time) significantly impact image quality. This challenge becomes more pronounced in multi-view scenarios, where variations in lighting and image signal processor (ISP) settings across viewpoints introduce photometric inconsistencies. Such lighting degradations and view-dependent variations pose substantial challenges to novel view synthesis (NVS) frameworks based on Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS). To address this, we introduce Luminance-GS, a novel approach to achieving high-quality novel view synthesis results under diverse challenging lighting conditions using 3DGS. By adopting per-view color matrix mapping and view-adaptive curve adjustments, Luminance-GS achieves state-of-the-art (SOTA) results across various lighting conditions -- including low-light, overexposure, and varying exposure -- while not altering the original 3DGS explicit representation. Compared to previous NeRF- and 3DGS-based baselines, Luminance-GS provides real-time rendering speed with improved reconstruction quality.
- Abstract(参考訳): 自然光(例えば、低照度)とカメラ露出設定(例えば、露光時間)の両方が画質に大きな影響を与えているため、様々な現実世界の照明条件下で高品質な写真を撮影することは困難である。
この課題は、光と画像信号プロセッサ(ISP)の設定の相違によって、光度の不整合が引き起こされる、多視点シナリオにおいてより顕著になる。
このような光劣化とビュー依存の変動は、ニューラルレイディアンス場(NeRF)と3Dガウススプラッティング(DGS)に基づく新しいビュー合成(NVS)フレームワークに重大な課題をもたらす。
この問題を解決するために,3DGSを用いた様々な難解な照明条件下で,高品質な新規ビュー合成結果を実現するための新しいアプローチであるLuminance-GSを紹介した。
ビュー毎の色行列マッピングとビュー適応曲線調整を採用することで、Luminance-GSは、低照度、過剰露光、様々な露光を含む様々な照明条件のSOTA(State-of-the-art)結果を達成すると同時に、元の3DGSの明示的な表現を変更しない。
以前のNeRFおよび3DGSベースのベースラインと比較して、Luminance-GSは再現性を改善したリアルタイムレンダリング速度を提供する。
関連論文リスト
- EBAD-Gaussian: Event-driven Bundle Adjusted Deblur Gaussian Splatting [21.46091843175779]
イベント駆動バンドル調整デブルガウススメッティング(EBAD-Gaussian)
EBAD-Gaussianは、イベントストリームとひどくぼやけた画像から、鋭い3Dガウシアンを再構築する。
合成および実世界のデータセットの実験により、EBAD-Gaussianは高品質な3Dシーンを再構築できることが示された。
論文 参考訳(メタデータ) (2025-04-14T09:17:00Z) - LITA-GS: Illumination-Agnostic Novel View Synthesis via Reference-Free 3D Gaussian Splatting and Physical Priors [14.160637565120231]
LITA-GSは、参照不要な3DGSおよび物理前駆体を用いた、照度に依存しない新規なビュー合成法である。
我々は、シーン構造とオブジェクトの外観の最適化を容易にする照明に依存しない構造描画戦略を開発した。
我々はLITA-GSの訓練のための教師なし戦略を採用し、LITA-GSが最先端(SOTA)のNeRF法を超越していることを示す広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-31T20:44:39Z) - GS-I$^{3}$: Gaussian Splatting for Surface Reconstruction from Illumination-Inconsistent Images [6.055104738156626]
3D Gaussian Splatting (3DGS) は表面再構成の分野で大きな注目を集めている。
不整合照明下での頑健な表面再構成の課題を解決するため,GS-3I と呼ばれる手法を提案する。
GS-3Iは複雑な照明のシナリオをまたいで、堅牢で正確な表面再構成を実現することができることを示す。
論文 参考訳(メタデータ) (2025-03-16T03:08:54Z) - D3DR: Lighting-Aware Object Insertion in Gaussian Splatting [48.80431740983095]
D3DRと呼ばれる3DGS並列化オブジェクトを3DGSシーンに挿入する手法を提案する。
我々は、現実世界のデータに基づいて訓練された拡散モデルの進歩を活用し、正しいシーンライティングを暗黙的に理解する。
提案手法を既存手法と比較することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-03-09T19:48:00Z) - SEE: See Everything Every Time -- Adaptive Brightness Adjustment for Broad Light Range Images via Events [53.79905461386883]
ダイナミックレンジが120億ドルを超えるイベントカメラは、従来の組込みカメラをはるかに上回っている。
本研究では,広い照明条件下で撮影した画像の明るさを拡張・適応的に調整するために,イベントをどのように利用するかという,新しい研究課題を提案する。
我々のフレームワークは、センサパターンを通して色を捉え、イベントを輝度辞書としてモデル化するためにクロスアテンションを使用し、画像のダイナミックレンジを調整し、広い光域表現を形成する。
論文 参考訳(メタデータ) (2025-02-28T14:55:37Z) - Decoupling Appearance Variations with 3D Consistent Features in Gaussian Splatting [50.98884579463359]
本稿では,プラグアンドプレイ方式で外観変化を分離するDAVIGSを提案する。
ガウスレベルではなく画像レベルでレンダリング結果を変換することにより、最適化時間とメモリオーバーヘッドを最小限に抑えた外観変化をモデル化できる。
提案手法をいくつかの外観変化シーンで検証し,トレーニング時間とメモリ使用量を最小限に抑えて,最先端のレンダリング品質を実現することを実証した。
論文 参考訳(メタデータ) (2025-01-18T14:55:58Z) - PEP-GS: Perceptually-Enhanced Precise Structured 3D Gaussians for View-Adaptive Rendering [7.1029808965488686]
3D Gaussian Splatting (3D-GS)はリアルタイムで高品質な3Dシーンレンダリングにおいて大きな成功を収めた。
しかし、ガウスの冗長性、ビュー依存効果を捉える能力の制限、複雑な照明と反射の扱いの難しさなど、いくつかの課題に直面している。
PEP-GSは、不透明度、色、共分散を含むガウス属性を動的に予測する知覚的に強化されたフレームワークである。
論文 参考訳(メタデータ) (2024-11-08T17:42:02Z) - DifFRelight: Diffusion-Based Facial Performance Relighting [12.909429637057343]
拡散に基づく画像から画像への変換を用いた,自由視点顔の表情のリライティングのための新しいフレームワークを提案する。
我々は、正確な照明制御のための拡散モデルを訓練し、フラットライト入力からの顔画像の高忠実度化を可能にする。
このモデルは、目の反射、地表面散乱、自影、半透明といった複雑な照明効果を正確に再現する。
論文 参考訳(メタデータ) (2024-10-10T17:56:44Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments [51.58771256128329]
本稿では,低照度超解像課題の性質を深く理解しようとする,特殊二変調学習フレームワークを提案する。
Illuminance-Semantic Dual Modulation (ISDM) コンポーネントを開発した。
包括的実験は、我々のアプローチが多様で挑戦的な超低照度条件に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-09-11T06:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。