論文の概要: A Unified HDR Imaging Method with Pixel and Patch Level
- arxiv url: http://arxiv.org/abs/2304.06943v2
- Date: Mon, 17 Apr 2023 01:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 11:40:32.921525
- Title: A Unified HDR Imaging Method with Pixel and Patch Level
- Title(参考訳): 画素とパッチレベルを考慮した統一hdrイメージング法
- Authors: Qingsen Yan, Weiye Chen, Song Zhang, Yu Zhu, Jinqiu Sun, Yanning Zhang
- Abstract要約: 我々はHyNetと呼ばれるハイブリッドHDRデゴーストネットワークを提案し,HDR画像を生成する。
実験により、HyNetは最先端の手法よりも定量的にも質的にも優れており、統一されたテクスチャと色で魅力的なHDR視覚化を実現している。
- 参考スコア(独自算出の注目度): 41.14378863436963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mapping Low Dynamic Range (LDR) images with different exposures to High
Dynamic Range (HDR) remains nontrivial and challenging on dynamic scenes due to
ghosting caused by object motion or camera jitting. With the success of Deep
Neural Networks (DNNs), several DNNs-based methods have been proposed to
alleviate ghosting, they cannot generate approving results when motion and
saturation occur. To generate visually pleasing HDR images in various cases, we
propose a hybrid HDR deghosting network, called HyHDRNet, to learn the
complicated relationship between reference and non-reference images. The
proposed HyHDRNet consists of a content alignment subnetwork and a
Transformer-based fusion subnetwork. Specifically, to effectively avoid
ghosting from the source, the content alignment subnetwork uses patch
aggregation and ghost attention to integrate similar content from other
non-reference images with patch level and suppress undesired components with
pixel level. To achieve mutual guidance between patch-level and pixel-level, we
leverage a gating module to sufficiently swap useful information both in
ghosted and saturated regions. Furthermore, to obtain a high-quality HDR image,
the Transformer-based fusion subnetwork uses a Residual Deformable Transformer
Block (RDTB) to adaptively merge information for different exposed regions. We
examined the proposed method on four widely used public HDR image deghosting
datasets. Experiments demonstrate that HyHDRNet outperforms state-of-the-art
methods both quantitatively and qualitatively, achieving appealing HDR
visualization with unified textures and colors.
- Abstract(参考訳): 低ダイナミックレンジ(LDR)画像を高ダイナミックレンジ(HDR)に異なる露出でマッピングすることは、物体の動きやカメラのジッティングによって引き起こされるゴーストによる動的シーンにおいて、非自明で困難なままである。
ディープニューラルネットワーク(DNN)の成功により、ゴーストを緩和するためにいくつかのDNNベースの手法が提案されている。
HDR画像を生成するために,HyHDRNetと呼ばれるハイブリッドHDRデゴーストネットワークを提案し,参照画像と非参照画像の複雑な関係を学習する。
提案したHyHDRNetはコンテンツアライメントサブネットワークとTransformerベースのフュージョンサブネットワークで構成されている。
具体的には、ソースからのゴーストを効果的に回避するために、コンテンツアライメントサブネットワークはパッチアグリゲーションとゴーストアテンションを使用して、他の非参照画像からの類似したコンテンツをパッチレベルに統合し、望ましくないコンポーネントをピクセルレベルに抑制する。
パッチレベルと画素レベルの相互ガイダンスを実現するために,gatingモジュールを利用して,ゴースト領域と飽和領域の両方で有用な情報を十分に交換する。
さらに、高品質なHDR画像を得るために、TransformerベースのフュージョンサブネットワークはResidual Deformable Transformer Block (RDTB)を用いて異なる露出領域の情報を適応的にマージする。
提案手法は,広く使用されている4つのhdr画像デガホストデータセットについて検討した。
実験により、HyHDRNetは最先端の手法よりも定量的かつ質的に優れており、統一されたテクスチャと色で魅力的なHDR可視化を実現している。
関連論文リスト
- Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - Self-Supervised High Dynamic Range Imaging with Multi-Exposure Images in
Dynamic Scenes [58.66427721308464]
Selfは、訓練中にダイナミックなマルチ露光画像のみを必要とする自己教師型再構成手法である。
Selfは最先端の自己管理手法に対して優れた結果を出し、教師付き手法に匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-10-03T07:10:49Z) - SMAE: Few-shot Learning for HDR Deghosting with Saturation-Aware Masked
Autoencoders [97.64072440883392]
そこで本研究では,SSHDRと呼ばれる2段階の訓練を通した短距離HDRイメージングを実現するための,新しい半教師付きアプローチを提案する。
以前の方法とは異なり、コンテンツを直接回復し、ゴーストを同時に除去することは、最適に達成することが難しい。
実験により、SSHDRは異なるデータセットの内外における定量的かつ定性的に最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-14T03:42:51Z) - High Dynamic Range Imaging with Context-aware Transformer [3.1892103878735454]
ゴーストフリー画像のための新しい階層型デュアルトランス (HDT) 手法を提案する。
まず、空間的注意機構を備えたCNNベースのヘッドを用いて、すべてのLDR画像から特徴を抽出する。
第二に、LDR機能はTransformerに配信され、局所的な詳細はチャネルアテンション機構を用いて抽出される。
論文 参考訳(メタデータ) (2023-04-10T06:56:01Z) - Ghost-free High Dynamic Range Imaging via Hybrid CNN-Transformer and
Structure Tensor [12.167049432063132]
本稿では,ゴーストフリーなHDR画像を生成するために,畳み込みエンコーダとトランスフォーマーデコーダを組み合わせたハイブリッドモデルを提案する。
エンコーダでは、マルチスケール機能を最適化するために、コンテキスト集約ネットワークと非ローカルアテンションブロックが採用されている。
Swin Transformer に基づくデコーダを用いて,提案モデルの再構成性能を向上させる。
論文 参考訳(メタデータ) (2022-12-01T15:43:32Z) - Deep Progressive Feature Aggregation Network for High Dynamic Range
Imaging [24.94466716276423]
本研究では,動的シーンにおけるHDR画像の画質向上のための高度な特徴集約ネットワークを提案する。
提案手法は,高対応特徴を暗黙的にサンプリングし,それらを粗い方法で集約してアライメントする。
実験の結果,提案手法は異なるシーン下での最先端性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2022-08-04T04:37:35Z) - Segmentation Guided Deep HDR Deghosting [47.1023337218752]
運動分割誘導畳み込みニューラルネットワーク(CNN)による高ダイナミックレンジ()イメージデゴストリングを提案する。
まず、CNNを用いて、入力シーケンス内の移動領域を分割し、次いで、静止領域と移動領域を異なる融合ネットワークに分離して最終的なゴーストフリーHDR画像を生成する。
論文 参考訳(メタデータ) (2022-07-04T06:49:27Z) - HDRUNet: Single Image HDR Reconstruction with Denoising and
Dequantization [39.82945546614887]
本研究では,空間動的エンコーダデコーダネットワークであるHDRUNetを用いて,単一画像HDR再構成のためのエンドツーエンドマッピングを学習する。
本手法は,定量的比較と視覚的品質において最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-05-27T12:12:34Z) - UPHDR-GAN: Generative Adversarial Network for High Dynamic Range Imaging
with Unpaired Data [42.283022888414656]
本稿では,マルチ露光入力を効果的に融合し,不用意なデータセットを用いて高品質な高ダイナミックレンジ(リバーサ)画像を生成する手法を提案する。
ディープラーニングに基づくHDR画像生成手法は、ペア化されたデータセットに大きく依存する。
Generative Adrial Networks (GAN) は、ペアの例がない状態で、ソースドメインXからターゲットドメインYへの画像変換の可能性を示した。
論文 参考訳(メタデータ) (2021-02-03T03:09:14Z) - HDR-GAN: HDR Image Reconstruction from Multi-Exposed LDR Images with
Large Motions [62.44802076971331]
マルチ露光LDR画像からHDR画像を合成するための新しいGANモデルHDR-GANを提案する。
本手法は,敵対学習を取り入れることで,欠落したコンテンツのある領域に忠実な情報を生成することができる。
論文 参考訳(メタデータ) (2020-07-03T11:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。