論文の概要: Log NeRF: Comparing Spaces for Learning Radiance Fields
- arxiv url: http://arxiv.org/abs/2512.09375v1
- Date: Wed, 10 Dec 2025 07:12:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.428154
- Title: Log NeRF: Comparing Spaces for Learning Radiance Fields
- Title(参考訳): Log NeRF: 放射場学習のための空間の比較
- Authors: Sihe Chen, Luv Verma, Bruce A. Maxwell,
- Abstract要約: ニューラル・ラジアンス・フィールド(NeRF)は、新しいビュー合成において顕著な成果を上げている。
BiIlluminant Dichromatic Reflection (BIDR)モデルにインスパイアされた我々は、対数RGB空間によりNeRFはよりコンパクトで効果的なシーン外観表現を学習できるという仮説を立てた。
我々は様々な色空間解釈の下でNeRFモデルを訓練し、各ネットワーク出力をレンダリングとロス計算の前に共通色空間に変換し、異なる色空間での表現学習を強制した。
- 参考スコア(独自算出の注目度): 0.6542188603141654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRF) have achieved remarkable results in novel view synthesis, typically using sRGB images for supervision. However, little attention has been paid to the color space in which the network is learning the radiance field representation. Inspired by the BiIlluminant Dichromatic Reflection (BIDR) model, which suggests that a logarithmic transformation simplifies the separation of illumination and reflectance, we hypothesize that log RGB space enables NeRF to learn a more compact and effective representation of scene appearance. To test this, we captured approximately 30 videos using a GoPro camera, ensuring linear data recovery through inverse encoding. We trained NeRF models under various color space interpretations linear, sRGB, GPLog, and log RGB by converting each network output to a common color space before rendering and loss computation, enforcing representation learning in different color spaces. Quantitative and qualitative evaluations demonstrate that using a log RGB color space consistently improves rendering quality, exhibits greater robustness across scenes, and performs particularly well in low light conditions while using the same bit-depth input images. Further analysis across different network sizes and NeRF variants confirms the generalization and stability of the log space advantage.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、通常、監視のためにsRGB画像を使用して、新しいビュー合成において顕著な成果を上げている。
しかし、ネットワークが放射場表現を学習している色空間にはほとんど注意が払われていない。
BiIlluminant Dichromatic Reflection (BIDR)モデルにインスパイアされ、対数変換が照明と反射の分離を単純化することを示唆する。
これをテストするために、GoProカメラを使用して約30のビデオをキャプチャし、逆エンコーディングによる線形データリカバリを確保した。
線形, sRGB, GPLog, log RGBの各ネットワーク出力を共通色空間に変換し, レンダリングと損失計算を行い, 異なる色空間における表現学習を強制することにより, 様々な色空間解釈の下でNeRFモデルを訓練した。
定量的および定性的な評価は、ログRGB色空間を使用することで、レンダリング品質が一貫して向上し、シーン間のロバスト性が向上し、同じビット深度入力画像を使用しながら、特に低照度環境では、特に良好に機能することを示す。
異なるネットワークサイズとNeRFの変種をまたいださらなる解析により、ログ空間の利点の一般化と安定性が確認される。
関連論文リスト
- Rethinking RGB Color Representation for Image Restoration Models [55.81013540537963]
各画素に局所的な近傍構造情報を保持するために表現を拡大する。
画素あたりの損失に対する表現空間の置換は、画像復元モデルのトレーニングを容易にする。
私たちの空間は、色と局所構造の両方を再構築することで、全体的なメトリクスを一貫して改善します。
論文 参考訳(メタデータ) (2024-02-05T06:38:39Z) - Training Neural Networks on RAW and HDR Images for Restoration Tasks [53.84872583527721]
線形色空間におけるRAWおよびHDR画像のタスクに対して、ニューラルネットワークをどのようにトレーニングするかを検討する。
その結果、ニューラルネットワークは色空間で表現されるHDRおよびRAW画像において、かなりよく訓練されていることが示唆された。
トレーニング戦略へのこの小さな変更は、2から9dBの間で、非常に大きなパフォーマンス向上をもたらします。
論文 参考訳(メタデータ) (2023-12-06T17:47:16Z) - NeRF-DS: Neural Radiance Fields for Dynamic Specular Objects [63.04781030984006]
ダイナミック・ニューラル・ラジアンス・フィールド(英語版)(NeRF)は、動的シーンの単眼RGBビデオからフォトリアリスティック・ノベル・ビュー・イメージをレンダリングできる強力なアルゴリズムである。
観測空間の表面位置と配向に条件付される神経放射場関数を再構成することにより,その限界に対処する。
本研究では,現実的な環境下での異なる移動スペクトルオブジェクトの自己合成データセットを用いて,新しいビュー合成品質に基づくモデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-25T11:03:53Z) - DiffusioNeRF: Regularizing Neural Radiance Fields with Denoising
Diffusion Models [5.255302402546892]
デノナイジング拡散モデル(DDM)を用いてシーン形状と色に関する事前学習を行う。
これらのRGBDパッチの対数勾配は、シーンの幾何や色を規則化するのに役立ちます。
最も関連性の高いデータセットであるLLFFの評価は、我々の学習前は、再構成された幾何学の質の向上と、新しいビューの改善を実現していることを示している。
論文 参考訳(メタデータ) (2023-02-23T18:52:28Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。