論文の概要: PanDORA: Casual HDR Radiance Acquisition for Indoor Scenes
- arxiv url: http://arxiv.org/abs/2407.06150v1
- Date: Mon, 8 Jul 2024 17:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 14:40:07.161625
- Title: PanDORA: Casual HDR Radiance Acquisition for Indoor Scenes
- Title(参考訳): PanDORA: 屋内シーンのためのカジュアルHDRラジアンス買収
- Authors: Mohammad Reza Karimi Dastjerdi, Frédéric Fortier-Chouinard, Yannick Hold-Geoffroy, Marc Hébert, Claude Demers, Nima Kalantari, Jean-François Lalonde,
- Abstract要約: 本稿では,パノラマデュアルオブザーバレーダによる屋内シーンを高ダイナミックレンジでカジュアルに撮影するPanDORAについて紹介する。
提案システムは,携帯型三脚に2台の360度カメラを固定して構成する。
カメラは同時に2つの360度ビデオを取得する。
得られた画像は、シーンのフルハイダイナミックレンジを再構築するNeRFベースのアルゴリズムに供給される。
- 参考スコア(独自算出の注目度): 13.790885617434197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most novel view synthesis methods such as NeRF are unable to capture the true high dynamic range (HDR) radiance of scenes since they are typically trained on photos captured with standard low dynamic range (LDR) cameras. While the traditional exposure bracketing approach which captures several images at different exposures has recently been adapted to the multi-view case, we find such methods to fall short of capturing the full dynamic range of indoor scenes, which includes very bright light sources. In this paper, we present PanDORA: a PANoramic Dual-Observer Radiance Acquisition system for the casual capture of indoor scenes in high dynamic range. Our proposed system comprises two 360{\deg} cameras rigidly attached to a portable tripod. The cameras simultaneously acquire two 360{\deg} videos: one at a regular exposure and the other at a very fast exposure, allowing a user to simply wave the apparatus casually around the scene in a matter of minutes. The resulting images are fed to a NeRF-based algorithm that reconstructs the scene's full high dynamic range. Compared to HDR baselines from previous work, our approach reconstructs the full HDR radiance of indoor scenes without sacrificing the visual quality while retaining the ease of capture from recent NeRF-like approaches.
- Abstract(参考訳): 標準的な低ダイナミックレンジ(LDR)カメラで撮影される写真で通常訓練されているため、NeRFのような新しいビュー合成手法では、シーンの真の高ダイナミックレンジ(HDR)ラディアンスを捉えることができない。
異なる露光で複数の画像を撮影する従来の露光ブラケット手法は、最近マルチビューケースに適用されているが、非常に明るい光源を含む屋内シーンのフルダイナミックレンジを捉えるには至っていない。
本稿では,パノラマDual-Observer Radiance Acquisitionシステムを用いて,屋内シーンを高ダイナミックレンジでカジュアルに捕捉する手法を提案する。
提案システムは2台の360{\deg}カメラを携帯型三脚に固定する。
カメラは同時に2つの360{\deg}ビデオを取得する。1つは通常の露出で、もう1つは非常に速い露出で。
得られた画像は、シーンのフルハイダイナミックレンジを再構築するNeRFベースのアルゴリズムに供給される。
従来のHDRベースラインと比較して,近年のNeRFのようなアプローチによる捕捉の容易さを維持しつつ,視覚的品質を犠牲にすることなく,室内シーンのフルHDRラディアンスを再構築する。
関連論文リスト
- Exposure Completing for Temporally Consistent Neural High Dynamic Range Video Rendering [17.430726543786943]
本稿では,不在な露光情報を完成させることで,HDRフレームを描画する新しいパラダイムを提案する。
提案手法では, 隣接LDRフレームを時間次元で補間し, 露出の欠如に対してLDRフレームを再構成する。
これにより、HDR結果の融合プロセスの恩恵を受け、ノイズやゴーストを低減し、時間的一貫性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-18T09:13:08Z) - Cinematic Gaussians: Real-Time HDR Radiance Fields with Depth of Field [23.92087253022495]
放射場法は、多視点写真から複雑なシーンを再構成する際の技法の状態を表現している。
ピンホールカメラモデルへの依存は、すべてのシーン要素が入力画像に集中していると仮定し、実用的な課題を提示し、新規な視点合成において再焦点を複雑にする。
様々な露光時間,開口の放射率,焦点距離を多視点LDR画像を用いて高ダイナミックレンジシーンを再構成する3Dガウススメッティングに基づく軽量解析手法を提案する。
論文 参考訳(メタデータ) (2024-06-11T15:00:24Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
既存のHDR NVS法は主にNeRFに基づいており、長いトレーニング時間と遅い推論速度に悩まされている。
我々は,新しいHDRビューを効率よくレンダリングできる新しいフレームワークであるHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Fast High Dynamic Range Radiance Fields for Dynamic Scenes [39.3304365600248]
我々はHDR-HexPlaneという動的HDR NeRFフレームワークを提案し、様々な露出で捉えた動的2D画像から3Dシーンを学習する。
提案したモデルでは、任意の時点における高品質なノベルビュー画像を、望まれる露光でレンダリングすることができる。
論文 参考訳(メタデータ) (2024-01-11T17:15:16Z) - Pano-NeRF: Synthesizing High Dynamic Range Novel Views with Geometry
from Sparse Low Dynamic Range Panoramic Images [82.1477261107279]
そこで本研究では,Sparse LDRパノラマ画像からの照射場を用いて,忠実な幾何復元のための観測回数を増やすことを提案する。
実験により、照射場は幾何復元とHDR再構成の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-26T08:10:22Z) - GlowGAN: Unsupervised Learning of HDR Images from LDR Images in the Wild [74.52723408793648]
そこで本研究では,HDR画像の生成モデルを構築するための第1の手法について述べる。
鍵となる考え方は、GAN(Generative Adversarial Network)を訓練して、様々な露光下でLDRに投影された場合、実際のLDR画像と区別できないHDR画像を生成することである。
実験の結果,GlowGANはランドスケープ,雷,窓など多くの難題において,光現実的HDR画像を合成できることがわかった。
論文 参考訳(メタデータ) (2022-11-22T15:42:08Z) - Casual Indoor HDR Radiance Capture from Omnidirectional Images [6.558757117312684]
そこで本研究では,屋内大シーンの高分解能フルHDR放射場をカジュアルに捉える新しいパイプラインであるPano-NeRFについて紹介する。
結果のPano-NeRFパイプラインは、シーンの任意の場所から完全なHDRパノラマを推定することができる。
論文 参考訳(メタデータ) (2022-08-16T18:45:27Z) - Self-supervised HDR Imaging from Motion and Exposure Cues [14.57046548797279]
本稿では,学習可能なHDR推定のための新たな自己教師型アプローチを提案する。
実験の結果,提案手法を用いて訓練したHDRモデルは,全監督下で訓練したモデルと性能の競争力を発揮することがわかった。
論文 参考訳(メタデータ) (2022-03-23T10:22:03Z) - Multi-Bracket High Dynamic Range Imaging with Event Cameras [46.81570594990517]
本稿では,標準カメラとイベントカメラを組み合わせた最初のマルチブラケットHDRパイプラインを提案する。
以上の結果から,PSNRの合成データでは最大5dB,実世界のデータでは最大0.7dBの改善が得られた。
論文 参考訳(メタデータ) (2022-03-13T11:10:47Z) - Neural Radiance Fields for Outdoor Scene Relighting [70.97747511934705]
ニューラルラジアンス場に基づく屋外シーンライティングのための最初のアプローチであるNeRF-OSRを提案する。
従来の技術とは対照的に,本手法はシーン照明とカメラ視点の同時編集を可能にする。
シャドウ再現のための専用ネットワークも備えており、高品質の屋外照明に欠かせない。
論文 参考訳(メタデータ) (2021-12-09T18:59:56Z) - HDR-NeRF: High Dynamic Range Neural Radiance Fields [70.80920996881113]
我々は、低ダイナミックレンジ(LDR)ビューの集合からHDR放射界を異なる露光で復元するために、高ダイナミックレンジニューラルレイディアンス場(-NeRF)を提案する。
異なる露出下で、新しいHDRビューと新しいLDRビューの両方を生成することができる。
論文 参考訳(メタデータ) (2021-11-29T11:06:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。