論文の概要: HDR Video Reconstruction with Tri-Exposure Quad-Bayer Sensors
- arxiv url: http://arxiv.org/abs/2103.10982v1
- Date: Fri, 19 Mar 2021 18:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:37:56.380981
- Title: HDR Video Reconstruction with Tri-Exposure Quad-Bayer Sensors
- Title(参考訳): 三露光四面体センサを用いたHDR映像再構成
- Authors: Yitong Jiang, Inchang Choi, Jun Jiang, Jinwei Gu
- Abstract要約: 本研究では,新しい3露光クアッドベイヤセンサを用いた高ダイナミックレンジ(建設)映像再構成手法を提案する。
多数の露光セットとフレーム上の空間的均一な展開により、従来の空間的変動露光(SVE)HDRビデオ手法よりも、ノイズや空間的アーティファクトに対して堅牢である。
提案手法は, 従来手法よりも3重露光クワッドバイヤーが最適であることを示す。
- 参考スコア(独自算出の注目度): 14.844162451328321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel high dynamic range (HDR) video reconstruction method with
new tri-exposure quad-bayer sensors. Thanks to the larger number of exposure
sets and their spatially uniform deployment over a frame, they are more robust
to noise and spatial artifacts than previous spatially varying exposure (SVE)
HDR video methods. Nonetheless, the motion blur from longer exposures, the
noise from short exposures, and inherent spatial artifacts of the SVE methods
remain huge obstacles. Additionally, temporal coherence must be taken into
account for the stability of video reconstruction. To tackle these challenges,
we introduce a novel network architecture that divides-and-conquers these
problems. In order to better adapt the network to the large dynamic range, we
also propose LDR-reconstruction loss that takes equal contributions from both
the highlighted and the shaded pixels of HDR frames. Through a series of
comparisons and ablation studies, we show that the tri-exposure quad-bayer with
our solution is more optimal to capture than previous reconstruction methods,
particularly for the scenes with larger dynamic range and objects with motion.
- Abstract(参考訳): 本稿では,新しい3露光型クアッドバイヤーセンサを用いたハイダイナミックレンジ(HDR)ビデオ再構成手法を提案する。
多数の露光セットとフレーム上の空間的均一な展開により、従来の空間的変動露光(SVE)HDRビデオ手法よりもノイズや空間的アーティファクトに対して堅牢である。
それでも、長い露光による動きのぼやけ、短い露光によるノイズ、そしてsve法の固有の空間的アーティファクトは大きな障害のままである。
さらに,ビデオ再構成の安定性を考慮した時間的コヒーレンスも考慮しなければならない。
これらの課題に取り組むため,我々は,これらの問題を分割・解決する新しいネットワークアーキテクチャを導入する。
また,ネットワークを広いダイナミックレンジに適応させるために,hdrフレームの強調画素と陰影画素の両方から等しく寄与するldr再構成損失を提案する。
一連の比較とアブレーション研究を通じて,我々の解を用いた3重露光4重ベイヤは,従来の再構成法よりも,特にダイナミックレンジの広いシーンや動きのある物体に対して,より最適であることを示した。
関連論文リスト
- Exposure Completing for Temporally Consistent Neural High Dynamic Range Video Rendering [17.430726543786943]
本稿では,不在な露光情報を完成させることで,HDRフレームを描画する新しいパラダイムを提案する。
提案手法では, 隣接LDRフレームを時間次元で補間し, 露出の欠如に対してLDRフレームを再構成する。
これにより、HDR結果の融合プロセスの恩恵を受け、ノイズやゴーストを低減し、時間的一貫性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-18T09:13:08Z) - Event-based Asynchronous HDR Imaging by Temporal Incident Light Modulation [54.64335350932855]
我々は,HDRイメージングの課題に関する重要な知見に基づいて,Pixel-Asynchronous HDRイメージングシステムを提案する。
提案システムでは,DVS(Dynamic Vision Sensors)とLCDパネルを統合する。
LCDパネルは、その透過性を変化させてDVSの照射インシデントを変調し、ピクセル非依存のイベントストリームをトリガーする。
論文 参考訳(メタデータ) (2024-03-14T13:45:09Z) - Pano-NeRF: Synthesizing High Dynamic Range Novel Views with Geometry
from Sparse Low Dynamic Range Panoramic Images [82.1477261107279]
そこで本研究では,Sparse LDRパノラマ画像からの照射場を用いて,忠実な幾何復元のための観測回数を増やすことを提案する。
実験により、照射場は幾何復元とHDR再構成の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-26T08:10:22Z) - Online Overexposed Pixels Hallucination in Videos with Adaptive
Reference Frame Selection [90.35085487641773]
低ダイナミックレンジ(LDR)カメラは広いダイナミックレンジ入力に対応できず、しばしば局所的な露出問題を引き起こす。
複雑な処理機構を使わずにこれらの成果物を削減できる学習ベースシステムを提案する。
論文 参考訳(メタデータ) (2023-08-29T17:40:57Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - HDR Reconstruction from Bracketed Exposures and Events [12.565039752529797]
高品質なHDR画像の再構成は、現代の計算写真の中心にある。
特徴領域におけるブラケット画像とイベントを融合したマルチモーダルなエンドツーエンド学習型HDRイメージングシステムを提案する。
我々のフレームワークは、スライディングウィンドウを使用して入力イベントストリームをサブサンプリングすることで、イベントの時間分解能を高める。
論文 参考訳(メタデータ) (2022-03-28T15:04:41Z) - HDRVideo-GAN: Deep Generative HDR Video Reconstruction [19.837271879354184]
本稿では,LDR シーケンスからのHDR ビデオ再構成を交互に行うための,エンドツーエンドの GAN ベースのフレームワークを提案する。
まず、ノイズの多いLDRビデオからクリーンなLDRフレームを抽出し、自己教師付き環境で訓練された聴覚ネットワークと交互に露光する。
次に、隣接する交互露光フレームを基準フレームに整列し、完全対向設定で高品質なHDRフレームを再構成する。
論文 参考訳(メタデータ) (2021-10-22T14:02:03Z) - T\"oRF: Time-of-Flight Radiance Fields for Dynamic Scene View Synthesis [32.878225196378374]
連続波ToFカメラのための画像形成モデルに基づくニューラル表現を提案する。
提案手法は, 動的シーン再構成のロバスト性を改善し, 誤ったキャリブレーションや大きな動きに改善することを示す。
論文 参考訳(メタデータ) (2021-09-30T17:12:59Z) - Real-time Non-line-of-Sight imaging of dynamic scenes [11.199289771176238]
Non-Line-of-Sight(NLOS)イメージングは、直視線から隠された物体の3次元形状を復元することを目的としている。
過去には、シーンサイズ、キャプチャ速度、再構成品質を制限したマルチバウンス信号の弱さに悩まされてきた。
本研究では,SPAD(Single-Photon Avalanche Diode)アレイ検出器の合計28ピクセルと,特に拡張されたファザーフィールド再構成アルゴリズムを組み合わせることで,非反射性NLOSシーンのライブリアルタイム映像を再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-24T01:40:06Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。