論文の概要: Ghost-free High Dynamic Range Imaging via Hybrid CNN-Transformer and
Structure Tensor
- arxiv url: http://arxiv.org/abs/2212.00595v1
- Date: Thu, 1 Dec 2022 15:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:17:26.263212
- Title: Ghost-free High Dynamic Range Imaging via Hybrid CNN-Transformer and
Structure Tensor
- Title(参考訳): ハイブリッドCNN変換器と構造テンソルによるゴーストフリー高ダイナミックレンジイメージング
- Authors: Yu Yuan and Jiaqi Wu and Zhongliang Jing and Henry Leung and Han Pan
- Abstract要約: 本稿では,ゴーストフリーなHDR画像を生成するために,畳み込みエンコーダとトランスフォーマーデコーダを組み合わせたハイブリッドモデルを提案する。
エンコーダでは、マルチスケール機能を最適化するために、コンテキスト集約ネットワークと非ローカルアテンションブロックが採用されている。
Swin Transformer に基づくデコーダを用いて,提案モデルの再構成性能を向上させる。
- 参考スコア(独自算出の注目度): 12.167049432063132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Eliminating ghosting artifacts due to moving objects is a challenging problem
in high dynamic range (HDR) imaging. In this letter, we present a hybrid model
consisting of a convolutional encoder and a Transformer decoder to generate
ghost-free HDR images. In the encoder, a context aggregation network and
non-local attention block are adopted to optimize multi-scale features and
capture both global and local dependencies of multiple low dynamic range (LDR)
images. The decoder based on Swin Transformer is utilized to improve the
reconstruction capability of the proposed model. Motivated by the phenomenal
difference between the presence and absence of artifacts under the field of
structure tensor (ST), we integrate the ST information of LDR images as
auxiliary inputs of the network and use ST loss to further constrain artifacts.
Different from previous approaches, our network is capable of processing an
arbitrary number of input LDR images. Qualitative and quantitative experiments
demonstrate the effectiveness of the proposed method by comparing it with
existing state-of-the-art HDR deghosting models. Codes are available at
https://github.com/pandayuanyu/HSTHdr.
- Abstract(参考訳): 移動物体によるゴーストアーティファクトの除去は、高ダイナミックレンジ(HDR)イメージングにおいて難しい問題である。
本稿では,畳み込みエンコーダとトランスフォーマーデコーダを組み合わせたハイブリッドモデルを用いて,ゴーストフリーなHDR画像を生成する。
エンコーダでは、コンテキストアグリゲーションネットワークと非局所アテンションブロックを用いて、マルチスケールの特徴を最適化し、複数の低ダイナミックレンジ(LDR)画像のグローバルおよびローカルの依存関係をキャプチャする。
Swin Transformer に基づくデコーダを用いて,提案モデルの再構成性能を向上させる。
構造テンソル(ST)のフィールド下での人工物の存在と欠如の現象的差異により,我々はLDR画像のST情報をネットワークの補助入力として統合し,ST損失を利用してアーティファクトをさらに制約する。
従来のアプローチとは異なり、我々のネットワークは任意の数のLDR画像を処理することができる。
定性的かつ定量的な実験により,提案手法の有効性を既存のHDRデゴーストモデルと比較した。
コードはhttps://github.com/pandayuanyu/hsthdrで入手できる。
関連論文リスト
- HDRTransDC: High Dynamic Range Image Reconstruction with Transformer Deformation Convolution [21.870772317331447]
高ダイナミックレンジ(CAM)画像は、多露光低ダイナミックレンジ(LDR)画像を融合させることで、現実的な細部を持つ人工物のないHDR画像を生成することを目的としている。
融合歪みの除去を目的としたDWFBを提案する。
論文 参考訳(メタデータ) (2024-03-11T15:48:17Z) - Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - A Unified HDR Imaging Method with Pixel and Patch Level [41.14378863436963]
我々はHyNetと呼ばれるハイブリッドHDRデゴーストネットワークを提案し,HDR画像を生成する。
実験により、HyNetは最先端の手法よりも定量的にも質的にも優れており、統一されたテクスチャと色で魅力的なHDR視覚化を実現している。
論文 参考訳(メタデータ) (2023-04-14T06:21:57Z) - High Dynamic Range Imaging with Context-aware Transformer [3.1892103878735454]
ゴーストフリー画像のための新しい階層型デュアルトランス (HDT) 手法を提案する。
まず、空間的注意機構を備えたCNNベースのヘッドを用いて、すべてのLDR画像から特徴を抽出する。
第二に、LDR機能はTransformerに配信され、局所的な詳細はチャネルアテンション機構を用いて抽出される。
論文 参考訳(メタデータ) (2023-04-10T06:56:01Z) - Ghost-free High Dynamic Range Imaging with Context-aware Transformer [45.255802070953266]
ゴーストフリー高ダイナミックレンジイメージングのための新しいコンテキスト認識型視覚変換器(CA-ViT)を提案する。
CA-ViTはデュアルブランチアーキテクチャとして設計されており、グローバルとローカルの両方の依存関係を共同でキャプチャすることができる。
基本成分としてCA-ViTを組み込むことにより,高品質なゴーストフリーHDR画像を再構成する階層ネットワークであるHDR-Transformerをさらに構築する。
論文 参考訳(メタデータ) (2022-08-10T03:00:10Z) - Wavelet-Based Network For High Dynamic Range Imaging [64.66969585951207]
光学フローベースやエンド・ツー・エンドのディープラーニングベースのソリューションのような既存の方法は、詳細な復元やゴーストを除去する際にエラーを起こしやすい。
本研究では、周波数領域でHDR融合を行うための新しい周波数誘導型エンド・ツー・エンドディープニューラルネットワーク(FNet)を提案し、ウェーブレット変換(DWT)を用いて入力を異なる周波数帯域に分解する。
低周波信号は特定のゴーストアーティファクトを避けるために使用され、高周波信号は詳細を保存するために使用される。
論文 参考訳(メタデータ) (2021-08-03T12:26:33Z) - HDRUNet: Single Image HDR Reconstruction with Denoising and
Dequantization [39.82945546614887]
本研究では,空間動的エンコーダデコーダネットワークであるHDRUNetを用いて,単一画像HDR再構成のためのエンドツーエンドマッピングを学習する。
本手法は,定量的比較と視覚的品質において最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-05-27T12:12:34Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。