論文の概要: Capturing Stable HDR Videos Using a Dual-Camera System
- arxiv url: http://arxiv.org/abs/2507.06593v1
- Date: Wed, 09 Jul 2025 07:09:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.496667
- Title: Capturing Stable HDR Videos Using a Dual-Camera System
- Title(参考訳): デュアルカメラシステムによる安定HDR映像の撮影
- Authors: Qianyu Zhang, Bolun Zheng, Hangjia Pan, Lingyu Zhu, Zunjie Zhu, Zongpeng Li, Shiqi Wang,
- Abstract要約: HDRビデオ再構成では、異なる露光方法による参照画像の露光変動は、しばしばフリッカリングを引き起こす。
本稿では,HDRビデオ取得のためのデュアルカメラシステム(DCS)を提案する。
我々は、より堅牢な結果を得るために、露光適応核融合ネットワーク(EAFNet)を導入する。
- 参考スコア(独自算出の注目度): 19.393435127495668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In HDR video reconstruction, exposure fluctuations in reference images from alternating exposure methods often result in flickering. To address this issue, we propose a dual-camera system (DCS) for HDR video acquisition, where one camera is assigned to capture consistent reference sequences, while the other is assigned to capture non-reference sequences for information supplementation. To tackle the challenges posed by video data, we introduce an exposure-adaptive fusion network (EAFNet) to achieve more robust results. EAFNet introduced a pre-alignment subnetwork to explore the influence of exposure, selectively emphasizing the valuable features across different exposure levels. Then, the enhanced features are fused by the asymmetric cross-feature fusion subnetwork, which explores reference-dominated attention maps to improve image fusion by aligning cross-scale features and performing cross-feature fusion. Finally, the reconstruction subnetwork adopts a DWT-based multiscale architecture to reduce ghosting artifacts and refine features at different resolutions. Extensive experimental evaluations demonstrate that the proposed method achieves state-of-the-art performance on different datasets, validating the great potential of the DCS in HDR video reconstruction. The codes and data captured by DCS will be available at https://github.com/zqqqyu/DCS.
- Abstract(参考訳): HDRビデオ再構成では、異なる露光方法による参照画像の露光変動は、しばしばフリッカリングを引き起こす。
この問題に対処するため、HDRビデオ取得のためのデュアルカメラシステム(DCS)を提案し、一方のカメラは一貫性のある参照シーケンスをキャプチャするために割り当てられ、他方のカメラは情報補完のためにノン参照シーケンスをキャプチャするために割り当てられる。
ビデオデータによる課題に対処するために,より堅牢な結果を得るために,露出適応型核融合ネットワーク(EAFNet)を導入する。
EAFNetは、露光の影響を調べるための調整前のサブネットワークを導入し、異なる露光レベルにまたがる価値ある特徴を選択的に強調した。
次に,非対称なクロスファンクション・フュージョン・サブネットワークによって拡張された特徴を融合させ,参照優先のアテンションマップを探索し,クロススケール特徴の整列とクロスファンクション・フュージョンの実行により画像融合を改善する。
最後に、再構成サブネットワークはDWTベースのマルチスケールアーキテクチャを採用し、ゴーストアーティファクトを削減し、異なる解像度で機能を洗練する。
大規模な実験により,提案手法は異なるデータセット上での最先端性能を実現し,HDRビデオ再構成におけるDCSの大きな可能性を検証した。
DCSが取得したコードとデータはhttps://github.com/zqqqyu/DCSで入手できる。
関連論文リスト
- Event-based Asynchronous HDR Imaging by Temporal Incident Light Modulation [54.64335350932855]
我々は,HDRイメージングの課題に関する重要な知見に基づいて,Pixel-Asynchronous HDRイメージングシステムを提案する。
提案システムでは,DVS(Dynamic Vision Sensors)とLCDパネルを統合する。
LCDパネルは、その透過性を変化させてDVSの照射インシデントを変調し、ピクセル非依存のイベントストリームをトリガーする。
論文 参考訳(メタデータ) (2024-03-14T13:45:09Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - A Unified HDR Imaging Method with Pixel and Patch Level [41.14378863436963]
我々はHyNetと呼ばれるハイブリッドHDRデゴーストネットワークを提案し,HDR画像を生成する。
実験により、HyNetは最先端の手法よりも定量的にも質的にも優れており、統一されたテクスチャと色で魅力的なHDR視覚化を実現している。
論文 参考訳(メタデータ) (2023-04-14T06:21:57Z) - Ghost-free High Dynamic Range Imaging via Hybrid CNN-Transformer and
Structure Tensor [12.167049432063132]
本稿では,ゴーストフリーなHDR画像を生成するために,畳み込みエンコーダとトランスフォーマーデコーダを組み合わせたハイブリッドモデルを提案する。
エンコーダでは、マルチスケール機能を最適化するために、コンテキスト集約ネットワークと非ローカルアテンションブロックが採用されている。
Swin Transformer に基づくデコーダを用いて,提案モデルの再構成性能を向上させる。
論文 参考訳(メタデータ) (2022-12-01T15:43:32Z) - SJ-HD^2R: Selective Joint High Dynamic Range and Denoising Imaging for
Dynamic Scenes [17.867412310873732]
Ghosting artifacts, Motion blur, Lowfidelity in highlightは、高ダイナミックレンジ(LDR)イメージングにおける主な課題である。
本稿では,2つのサブネットワークを含むHDRとデノナイズパイプラインを提案する。
私たちは、最初の共同HDRとデノナイジングベンチマークデータセットを作成します。
論文 参考訳(メタデータ) (2022-06-20T07:49:56Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - A Two-stage Deep Network for High Dynamic Range Image Reconstruction [0.883717274344425]
本研究では,新しい2段階深層ネットワークを提案することにより,シングルショットLDRからHDRマッピングへの課題に取り組む。
提案手法は,カメラ応答機能(CRF)や露光設定など,ハードウェア情報を知ることなくHDR画像の再構築を図ることを目的とする。
論文 参考訳(メタデータ) (2021-04-19T15:19:17Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。