論文の概要: Optimal HDR and Depth from Dual Cameras
- arxiv url: http://arxiv.org/abs/2003.05907v1
- Date: Thu, 12 Mar 2020 17:14:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:34:54.926372
- Title: Optimal HDR and Depth from Dual Cameras
- Title(参考訳): デュアルカメラからの最適HDRと深さ
- Authors: Pradyumna Chari, Anil Kumar Vadathya, Kaushik Mitra
- Abstract要約: デュアルカメラシステムを用いてシーンHDRと不均質マップを撮影するための最適手法を探索する。
最適なキャプチャーシーケンスは、他のキャプチャーよりも優れた結果をもたらすことを実証する。
我々は,1台のカメラから撮影した高密度画像からなるステレオHDRデータセットを初めて提示する。
- 参考スコア(独自算出の注目度): 18.31448635476334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dual camera systems have assisted in the proliferation of various
applications, such as optical zoom, low-light imaging and High Dynamic Range
(HDR) imaging. In this work, we explore an optimal method for capturing the
scene HDR and disparity map using dual camera setups. Hasinoff et al. (2010)
have developed a noise optimal framework for HDR capture from a single camera.
We generalize this to the dual camera set-up for estimating both HDR and
disparity map. It may seem that dual camera systems can capture HDR in a
shorter time. However, disparity estimation is a necessary step, which requires
overlap among the images captured by the two cameras. This may lead to an
increase in the capture time. To address this conflicting requirement, we
propose a novel framework to find the optimal exposure and ISO sequence by
minimizing the capture time under the constraints of an upper bound on the
disparity error and a lower bound on the per-exposure SNR. We show that the
resulting optimization problem is non-convex in general and propose an
appropriate initialization technique. To obtain the HDR and disparity map from
the optimal capture sequence, we propose a pipeline which alternates between
estimating the camera ICRFs and the scene disparity map. We demonstrate that
our optimal capture sequence leads to better results than other possible
capture sequences. Our results are also close to those obtained by capturing
the full stereo stack spanning the entire dynamic range. Finally, we present
for the first time a stereo HDR dataset consisting of dense ISO and exposure
stack captured from a smartphone dual camera. The dataset consists of 6 scenes,
with an average of 142 exposure-ISO image sequence per scene.
- Abstract(参考訳): デュアルカメラシステムは、光学ズーム、低光度撮像、高ダイナミックレンジ(hdr)撮像などの様々な応用の拡散を補助している。
本研究では,デュアルカメラを用いたシーンhdrと不均等マップの最適撮影法について検討する。
Hasinoffら (2010) は、単一カメラからのHDRキャプチャーのためのノイズ最適フレームワークを開発した。
これをデュアルカメラに一般化し、hdrとdisparity mapの両方を推定する。
デュアルカメラシステムは、HDRを短時間で捉えることができるようだ。
しかし、この2つのカメラが捉えた画像間で重なり合う必要があるため、差分推定は必要なステップである。
これは捕獲時間の増加につながる可能性がある。
この矛盾する要件に対処するために,各露光SNR上の上限値と下限値の制約条件下での捕捉時間を最小化し,最適な露光とISOシーケンスを見つけるための新しい枠組みを提案する。
結果、最適化問題は一般には非凸であり、適切な初期化手法を提案する。
最適なキャプチャシーケンスからHDRと不均質マップを得るために,カメラICRFとシーン不均質マップを交互に推定するパイプラインを提案する。
最適なキャプチャシーケンスは、他の可能なキャプチャシーケンスよりも優れた結果をもたらすことを示す。
我々の結果は、動的範囲全体にまたがる全ステレオスタックをキャプチャすることで得られるものに近い。
最後に、スマートフォンのデュアルカメラから撮影された高密度isoと露光スタックからなるステレオhdrデータセットを初めて紹介する。
データセットは6つのシーンで構成され、平均142の露光ISO画像シーケンスがある。
関連論文リスト
- HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - Event-based Asynchronous HDR Imaging by Temporal Incident Light Modulation [54.64335350932855]
我々は,HDRイメージングの課題に関する重要な知見に基づいて,Pixel-Asynchronous HDRイメージングシステムを提案する。
提案システムでは,DVS(Dynamic Vision Sensors)とLCDパネルを統合する。
LCDパネルは、その透過性を変化させてDVSの照射インシデントを変調し、ピクセル非依存のイベントストリームをトリガーする。
論文 参考訳(メタデータ) (2024-03-14T13:45:09Z) - RawHDR: High Dynamic Range Image Reconstruction from a Single Raw Image [36.17182977927645]
高ダイナミックレンジ(RGB)画像は、標準画像よりもはるかに多くの強度レベルをキャプチャする。
現在の方法では、カメラ処理パイプラインによって劣化した8ビット低ダイナミックレンジ(LDR)s画像から、主にHDR画像を生成する。
既存の方法とは異なり、この研究の中心となる考え方は、より情報に富んだRawセンサーデータを取り入れてHDR画像を生成することである。
論文 参考訳(メタデータ) (2023-09-05T07:58:21Z) - SMAE: Few-shot Learning for HDR Deghosting with Saturation-Aware Masked
Autoencoders [97.64072440883392]
そこで本研究では,SSHDRと呼ばれる2段階の訓練を通した短距離HDRイメージングを実現するための,新しい半教師付きアプローチを提案する。
以前の方法とは異なり、コンテンツを直接回復し、ゴーストを同時に除去することは、最適に達成することが難しい。
実験により、SSHDRは異なるデータセットの内外における定量的かつ定性的に最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-14T03:42:51Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - SJ-HD^2R: Selective Joint High Dynamic Range and Denoising Imaging for
Dynamic Scenes [17.867412310873732]
Ghosting artifacts, Motion blur, Lowfidelity in highlightは、高ダイナミックレンジ(LDR)イメージングにおける主な課題である。
本稿では,2つのサブネットワークを含むHDRとデノナイズパイプラインを提案する。
私たちは、最初の共同HDRとデノナイジングベンチマークデータセットを作成します。
論文 参考訳(メタデータ) (2022-06-20T07:49:56Z) - Self-supervised HDR Imaging from Motion and Exposure Cues [14.57046548797279]
本稿では,学習可能なHDR推定のための新たな自己教師型アプローチを提案する。
実験の結果,提案手法を用いて訓練したHDRモデルは,全監督下で訓練したモデルと性能の競争力を発揮することがわかった。
論文 参考訳(メタデータ) (2022-03-23T10:22:03Z) - Multi-Bracket High Dynamic Range Imaging with Event Cameras [46.81570594990517]
本稿では,標準カメラとイベントカメラを組み合わせた最初のマルチブラケットHDRパイプラインを提案する。
以上の結果から,PSNRの合成データでは最大5dB,実世界のデータでは最大0.7dBの改善が得られた。
論文 参考訳(メタデータ) (2022-03-13T11:10:47Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - HDR Video Reconstruction: A Coarse-to-fine Network and A Real-world
Benchmark Dataset [30.249052175655606]
HDRビデオ再構築のための粗い深層学習フレームワークを紹介します。
まず,画像空間において粗いアライメントとピクセルブレンドを行い,粗いhdr映像を推定する。
第二に、粗いHDRビデオの特徴空間でより洗練されたアライメントと時間融合を行い、より良い再構築を実現します。
論文 参考訳(メタデータ) (2021-03-27T16:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。