論文の概要: GaussHDR: High Dynamic Range Gaussian Splatting via Learning Unified 3D and 2D Local Tone Mapping
- arxiv url: http://arxiv.org/abs/2503.10143v1
- Date: Thu, 13 Mar 2025 08:07:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:52:58.587498
- Title: GaussHDR: High Dynamic Range Gaussian Splatting via Learning Unified 3D and 2D Local Tone Mapping
- Title(参考訳): GaussHDR: 統一3次元および2次元局所トーンマッピングの学習による高ダイナミックレンジガウススプラッティング
- Authors: Jinfeng Liu, Lingtong Kong, Bo Li, Dan Xu,
- Abstract要約: 本稿では,3次元スプラッティングによる3次元局所トーンマッピングと2次元局所トーンマッピングを一体化するガウスについて述べる。
次に,3次元および2次元局所トーンマッピングのLDR結果の組み合わせを損失レベルで提案する。
- 参考スコア(独自算出の注目度): 17.42021596542516
- License:
- Abstract: High dynamic range (HDR) novel view synthesis (NVS) aims to reconstruct HDR scenes by leveraging multi-view low dynamic range (LDR) images captured at different exposure levels. Current training paradigms with 3D tone mapping often result in unstable HDR reconstruction, while training with 2D tone mapping reduces the model's capacity to fit LDR images. Additionally, the global tone mapper used in existing methods can impede the learning of both HDR and LDR representations. To address these challenges, we present GaussHDR, which unifies 3D and 2D local tone mapping through 3D Gaussian splatting. Specifically, we design a residual local tone mapper for both 3D and 2D tone mapping that accepts an additional context feature as input. We then propose combining the dual LDR rendering results from both 3D and 2D local tone mapping at the loss level. Finally, recognizing that different scenes may exhibit varying balances between the dual results, we introduce uncertainty learning and use the uncertainties for adaptive modulation. Extensive experiments demonstrate that GaussHDR significantly outperforms state-of-the-art methods in both synthetic and real-world scenarios.
- Abstract(参考訳): 高ダイナミックレンジ (HDR) の新規ビュー合成 (NVS) は,多視点低ダイナミックレンジ (LDR) 画像を異なる露出レベルで撮影することにより,HDRシーンを再構成することを目的としている。
現在の3Dトーンマッピングによるトレーニングパラダイムは、不安定なHDR再構成をもたらすことが多いが、2Dトーンマッピングによるトレーニングは、LDRイメージに適合するモデルの能力を低下させる。
さらに、既存の手法で使用されるグローバルトーンマッパーは、HDRとLDRの両方の表現の学習を妨げる可能性がある。
これらの課題に対処するため,3次元ガウススプラッティングによる3次元および2次元局所トーンマッピングを統一したガウスHDRを提案する。
具体的には、3Dと2Dの両方のトーンマッピングのための残差局所トーンマッパーを設計し、入力として追加のコンテキスト特徴を受け入れる。
次に、損失レベルにおける3次元および2次元局所トーンマッピングの2つのLDRレンダリング結果の組み合わせを提案する。
最後に,異なるシーンが2つの結果の間に様々なバランスを示すことを認識し,不確実性学習を導入し,不確実性を用いて適応変調を行う。
広汎な実験により、ガウスHDRは合成シナリオと実世界のシナリオの両方において最先端の手法を著しく上回っていることが示された。
関連論文リスト
- Scaffold-SLAM: Structured 3D Gaussians for Simultaneous Localization and Photorealistic Mapping [10.876382942072933]
モノクロ,ステレオ,RGB-Dカメラ間の同時ローカライズと高品質な光リアルマッピングを実現するScaffold-SLAMを提案する。
まず,3次元ガウスアンによる様々なカメラポーズにおける画像の外観変化のモデル化を可能にする。
第二に、ガウス分布を導くために周波数正規化ピラミッドを導入し、モデルがシーンの細部を効果的に捉えることを可能にする。
論文 参考訳(メタデータ) (2025-01-09T13:50:26Z) - DSplats: 3D Generation by Denoising Splats-Based Multiview Diffusion Models [67.50989119438508]
本稿では,ガウスをベースとしたレコンストラクタを用いて,リアルな3Dアセットを生成することで,マルチビュー画像を直接認識するDSplatを紹介した。
実験の結果,DSplatsは高品質で空間的に一貫した出力を生成できるだけでなく,単一画像から3次元再構成への新たな標準も設定できることがわかった。
論文 参考訳(メタデータ) (2024-12-11T07:32:17Z) - A Lesson in Splats: Teacher-Guided Diffusion for 3D Gaussian Splats Generation with 2D Supervision [65.33043028101471]
本研究では,ガウスプレートの拡散モデルであるSplatDiffusionを導入し,単一画像から3次元構造を生成する。
既存の方法は決定論的フィードフォワード予測に依存しており、2Dデータからの3D推論の本質的な曖昧さを扱う能力を制限する。
論文 参考訳(メタデータ) (2024-12-01T00:29:57Z) - HDRGS: High Dynamic Range Gaussian Splatting [19.119572715951172]
高ダイナミックレンジ(GS)法は輝度によって色次元を向上し、トーンマッピングに非対称グリッドを使用する。
本手法は, 合成シナリオと実世界のシナリオの両方において, 現在の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-08-13T00:32:36Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - StyleNeRF: A Style-based 3D-Aware Generator for High-resolution Image
Synthesis [92.25145204543904]
StyleNeRFは高解像度画像合成のための3次元認識型生成モデルである。
ニューラル放射場(NeRF)をスタイルベースジェネレータに統合する。
高品質な3D一貫性を維持しながら、対話的な速度で高解像度画像を合成することができる。
論文 参考訳(メタデータ) (2021-10-18T02:37:01Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。