論文の概要: Multi-scale Sampling and Aggregation Network For High Dynamic Range
Imaging
- arxiv url: http://arxiv.org/abs/2208.02448v1
- Date: Thu, 4 Aug 2022 04:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:57:43.046635
- Title: Multi-scale Sampling and Aggregation Network For High Dynamic Range
Imaging
- Title(参考訳): 高ダイナミックレンジイメージングのためのマルチスケールサンプリング・集約ネットワーク
- Authors: Jun Xiao, Qian Ye, Tianshan Liu, Cong Zhang, Kin-Man Lam
- Abstract要約: 動的シーンにおけるHDRイメージングのためのマルチスケールサンプリング・アグリゲーションネットワークを提案する。
提案手法は,高対応性を粗い方法でサンプリング・集約することで,LDR画像のアライメントを暗黙的に行う。
実験の結果,提案手法は様々な場面で最先端のパフォーマンスを実現することができることがわかった。
- 参考スコア(独自算出の注目度): 24.94466716276423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High dynamic range (HDR) imaging is a fundamental problem in image
processing, which aims to generate well-exposed images, even in the presence of
varying illumination in the scenes. In recent years, multi-exposure fusion
methods have achieved remarkable results, which merge multiple low dynamic
range (LDR) images, captured with different exposures, to generate
corresponding HDR images. However, synthesizing HDR images in dynamic scenes is
still challenging and in high demand. There are two challenges in producing HDR
images: 1). Object motion between LDR images can easily cause undesirable
ghosting artifacts in the generated results. 2). Under and overexposed regions
often contain distorted image content, because of insufficient compensation for
these regions in the merging stage. In this paper, we propose a multi-scale
sampling and aggregation network for HDR imaging in dynamic scenes. To
effectively alleviate the problems caused by small and large motions, our
method implicitly aligns LDR images by sampling and aggregating
high-correspondence features in a coarse-to-fine manner. Furthermore, we
propose a densely connected network based on discrete wavelet transform for
performance improvement, which decomposes the input into several
non-overlapping frequency subbands and adaptively performs compensation in the
wavelet domain. Experiments show that our proposed method can achieve
state-of-the-art performances under diverse scenes, compared to other promising
HDR imaging methods. In addition, the HDR images generated by our method
contain cleaner and more detailed content, with fewer distortions, leading to
better visual quality.
- Abstract(参考訳): 高ダイナミックレンジイメージング(HDR)は画像処理の基本的な問題であり、シーンに様々な照明が存在する場合でも、よく露出した画像を生成することを目的としている。
近年,複数の低ダイナミックレンジ(ldr)画像が異なる露光で撮影され,対応するhdr画像を生成するマルチ露光融合法が注目されている。
しかし、動的シーンにおけるHDR画像の合成は依然として困難であり、高い需要がある。
HDR画像の生成には2つの課題がある。
LDR画像間の物体の動きは、生成した結果に望ましくないゴーストアーティファクトを容易に引き起こすことができる。
2).
下部および過露出領域は、融合段階におけるこれらの領域の補償が不十分なため、しばしば歪んだ画像を含む。
本稿では,動的シーンにおけるHDRイメージングのためのマルチスケールサンプリング・アグリゲーションネットワークを提案する。
小さくて大きな動きによって生じる問題を効果的に軽減するために,提案手法は粗大な方法で高対応性をサンプリング・集約することでLDR画像を暗黙的にアライメントする。
さらに,複数の非重複周波数サブバンドに入力を分解し,ウェーブレット領域で適応的に補償を行う,離散ウェーブレット変換に基づく高密度ネットワークを提案する。
実験により,提案手法は様々な場面において,他の有望なhdrイメージング手法と比較して最先端の性能が得られることを示した。
さらに,本手法により生成したHDR画像は,よりクリーンで詳細な内容を含み,歪みが少なく,視覚的品質が向上する。
関連論文リスト
- Intrinsic Single-Image HDR Reconstruction [0.6554326244334868]
そこで本研究では,本質的な領域におけるHDR再構成問題の物理的に着想を得たリモデリングを提案する。
課題を2つの単純なサブタスクに分割することで,多種多様な写真の性能向上が期待できる。
論文 参考訳(メタデータ) (2024-09-20T17:56:51Z) - Generating Content for HDR Deghosting from Frequency View [56.103761824603644]
近年の拡散モデル (DM) はHDRイメージング分野に導入されている。
DMは画像全体を推定するために大きなモデルで広範囲の反復を必要とする。
ゴーストフリーHDRイメージングのための低周波数対応拡散(LF-Diff)モデルを提案する。
論文 参考訳(メタデータ) (2024-04-01T01:32:11Z) - Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - High Dynamic Range Imaging of Dynamic Scenes with Saturation
Compensation but without Explicit Motion Compensation [20.911738532410766]
高ダイナミックレンジ(LDR)イメージングは、カメラセンサの限界により大量の情報が失われるため、非常に難しい課題である。
HDRイメージングでは、複数の低ダイナミックレンジ(LDR)画像を露出の変化で捉え、より多くの情報を収集する手法がある。
既存の手法のほとんどはゴーストのアーチファクトを減らすために運動補償に重点を置いているが、それでも満足できない結果をもたらす。
論文 参考訳(メタデータ) (2023-08-22T02:44:03Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - A Unified HDR Imaging Method with Pixel and Patch Level [41.14378863436963]
我々はHyNetと呼ばれるハイブリッドHDRデゴーストネットワークを提案し,HDR画像を生成する。
実験により、HyNetは最先端の手法よりも定量的にも質的にも優れており、統一されたテクスチャと色で魅力的なHDR視覚化を実現している。
論文 参考訳(メタデータ) (2023-04-14T06:21:57Z) - SMAE: Few-shot Learning for HDR Deghosting with Saturation-Aware Masked
Autoencoders [97.64072440883392]
そこで本研究では,SSHDRと呼ばれる2段階の訓練を通した短距離HDRイメージングを実現するための,新しい半教師付きアプローチを提案する。
以前の方法とは異なり、コンテンツを直接回復し、ゴーストを同時に除去することは、最適に達成することが難しい。
実験により、SSHDRは異なるデータセットの内外における定量的かつ定性的に最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-14T03:42:51Z) - Learning Regularized Multi-Scale Feature Flow for High Dynamic Range
Imaging [29.691689596845112]
正規化損失によって導かれるマルチスケールな特徴フローを学習しようとするディープネットワークを提案する。
まず、マルチスケールの特徴を抽出し、非参照画像から特徴を整列する。
調整後、異なる画像の特徴をマージするために残留チャネルアテンションブロックを使用する。
論文 参考訳(メタデータ) (2022-07-06T09:37:28Z) - HDRUNet: Single Image HDR Reconstruction with Denoising and
Dequantization [39.82945546614887]
本研究では,空間動的エンコーダデコーダネットワークであるHDRUNetを用いて,単一画像HDR再構成のためのエンドツーエンドマッピングを学習する。
本手法は,定量的比較と視覚的品質において最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-05-27T12:12:34Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。