論文の概要: Haze-Aware Attention Network for Single-Image Dehazing
- arxiv url: http://arxiv.org/abs/2407.11505v1
- Date: Tue, 16 Jul 2024 08:42:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 15:52:20.937088
- Title: Haze-Aware Attention Network for Single-Image Dehazing
- Title(参考訳): シングルイメージ脱ハージングのためのヘイズアウェアアテンションネットワーク
- Authors: Lihan Tong, Yun Liu, Weijia Li, Liyuan Chen, Erkang Chen,
- Abstract要約: 本稿では,HAAM(Haze-Aware Attention Module)とMFEM(Multiscale Frequency Enhancement Module)を組み合わせたデハージングネットワークを提案する。
HAAMは大気散乱モデルにインスパイアされ、物理的原理を高次元の特徴に巧みに組み込んで目的の脱ハージングを行う。
我々の研究は、画像デハジングの分野を前進させるだけでなく、コンピュータビジョンの幅広い応用のための注意機構の設計に関する洞察も提供する。
- 参考スコア(独自算出の注目度): 10.881567541939653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-image dehazing is a pivotal challenge in computer vision that seeks to remove haze from images and restore clean background details. Recognizing the limitations of traditional physical model-based methods and the inefficiencies of current attention-based solutions, we propose a new dehazing network combining an innovative Haze-Aware Attention Module (HAAM) with a Multiscale Frequency Enhancement Module (MFEM). The HAAM is inspired by the atmospheric scattering model, thus skillfully integrating physical principles into high-dimensional features for targeted dehazing. It picks up on latent features during the image restoration process, which gives a significant boost to the metrics, while the MFEM efficiently enhances high-frequency details, thus sidestepping wavelet or Fourier transform complexities. It employs multiscale fields to extract and emphasize key frequency components with minimal parameter overhead. Integrated into a simple U-Net framework, our Haze-Aware Attention Network (HAA-Net) for single-image dehazing significantly outperforms existing attention-based and transformer models in efficiency and effectiveness. Tested across various public datasets, the HAA-Net sets new performance benchmarks. Our work not only advances the field of image dehazing but also offers insights into the design of attention mechanisms for broader applications in computer vision.
- Abstract(参考訳): シングルイメージのデハージングは、画像からヘイズを取り除き、クリーンな背景の詳細を復元するコンピュータビジョンにおいて重要な課題である。
従来の物理モデルに基づく手法の限界と、現在の注意に基づくソリューションの非効率性を認識し、革新的なHaze-Aware Attention Module(HAAM)とMFEM(Multiscale Frequency Enhancement Module)を組み合わせた新しいデハージングネットワークを提案する。
HAAMは大気散乱モデルにインスパイアされ、物理的原理を高次元の特徴に巧みに組み込んで目的の脱ハージングを行う。
MFEMは高頻度の詳細を効率的に強化し、ウェーブレットやフーリエ変換の複雑さをサイドステッピングする。
マルチスケールフィールドを使用して、パラメータのオーバーヘッドを最小限に抑えたキー周波数成分を抽出し、強調する。
Haze-Aware Attention Network(HAA-Net)は、単純なU-Netフレームワークに統合され、単一イメージのデハージングのためのネットワークであり、既存の注意ベースのモデルやトランスフォーマーモデルよりも効率と効果が大幅に向上します。
さまざまな公開データセットでテストされ、HAA-Netは新しいパフォーマンスベンチマークを設定している。
我々の研究は、画像デハジングの分野を前進させるだけでなく、コンピュータビジョンの幅広い応用のための注意機構の設計に関する洞察も提供する。
関連論文リスト
- DRACO-DehazeNet: An Efficient Image Dehazing Network Combining Detail Recovery and a Novel Contrastive Learning Paradigm [3.649619954898362]
Detail RecoveryとContrastive DehazeNetは、特定のデハズされたシーンコンテキストへの拡張を調整した、詳細なイメージリカバリネットワークである。
大きな革新は、新しい四重項損失に基づくコントラストデハージングパラダイムによって達成された、限られたデータで効果的にトレーニングできることである。
論文 参考訳(メタデータ) (2024-10-18T16:48:31Z) - PriorNet: A Novel Lightweight Network with Multidimensional Interactive Attention for Efficient Image Dehazing [8.837086917206525]
ヘイズ画像は視覚的品質を低下させ、デハジングはその後の処理タスクにとって重要な前提条件である。
本稿では,新鮮で軽量で適応性の高いデハジングネットワークであるPresiderNetを紹介する。
PriorNetのコアは、多次元インタラクティブアテンション(MIA)機構で、様々なヘイズ特性を効果的に捉えている。
論文 参考訳(メタデータ) (2024-04-24T04:20:22Z) - MaeFuse: Transferring Omni Features with Pretrained Masked Autoencoders for Infrared and Visible Image Fusion via Guided Training [57.18758272617101]
MaeFuseは、赤外線および可視画像融合(IVIF)用に設計された新しいオートエンコーダモデルである
提案モデルでは,MAE(Masked Autoencoders)の事前訓練エンコーダを用いて,低レベル再構成と高レベル視覚タスクのためのオムニ特徴抽出機能を備えている。
MaeFuseは、融合技術という領域で新しい視点を導入するだけでなく、様々な公開データセットで顕著なパフォーマンスで際立っている。
論文 参考訳(メタデータ) (2024-04-17T02:47:39Z) - Empowering Image Recovery_ A Multi-Attention Approach [96.25892659985342]
Diverse Restormer (DART) は、様々なソースからの情報を統合して復元課題に対処する画像復元手法である。
DARTは、全体的なパフォーマンスを高めるために、カスタマイズされたアテンションメカニズムを採用している。
5つの復元作業における評価は、常にDARTを最前線に配置する。
論文 参考訳(メタデータ) (2024-04-06T12:50:08Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - A Dive into SAM Prior in Image Restoration [40.03648504115027]
画像復元(IR)の目的は、その劣化した低品質(LQ)観測から高品質(HQ)イメージを復元することである。
本稿では,既存のIRネットワークにセマンティックプリエントを組み込む軽量SAMプリエントチューニング(SPT)ユニットを提案する。
我々の手法で唯一訓練可能なモジュールとして、SPTユニットは効率とスケーラビリティの両方を改善する可能性がある。
論文 参考訳(メタデータ) (2023-05-23T02:31:06Z) - MAT: Mask-Aware Transformer for Large Hole Image Inpainting [79.67039090195527]
本稿では, 変圧器と畳み込みの利点を統一する, 大穴塗装の新しいモデルを提案する。
実験では、複数のベンチマークデータセット上で、新しいモデルの最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-29T06:36:17Z) - Contrastive Learning for Compact Single Image Dehazing [41.83007400559068]
コントラスト学習に基づいて構築された新しいコントラスト正規化(CR)を提案し、ヘイズ画像とクリア画像の情報の両方をネガティブかつポジティブなサンプルとして活用する。
CRは、復元された画像が透明な画像に近づき、表現空間のぼやけた画像から遠くへ押し出されることを保証する。
性能とメモリストレージのトレードオフを考慮すると、オートエンコーダのようなフレームワークに基づくコンパクトなデハージングネットワークを開発する。
論文 参考訳(メタデータ) (2021-04-19T14:56:21Z) - Efficient and Accurate Multi-scale Topological Network for Single Image
Dehazing [31.543771270803056]
本稿では,入力画像自体の特徴抽出と利用に注意を払います。
本稿では,マルチスケールトポロジカルネットワーク (mstn) を提案する。
一方、我々は、異なるスケールで機能の選択と融合を達成するために、マルチスケール機能融合モジュール(MFFM)と適応機能選択モジュール(AFSM)を設計します。
論文 参考訳(メタデータ) (2021-02-24T08:53:14Z) - Single Image Deraining via Scale-space Invariant Attention Neural
Network [58.5284246878277]
我々は,カメラに対するレインステーキの外観の視覚的変化に対処するスケールの概念に取り組む。
本稿では,画素領域よりもコンパクトでロバストな畳み込み特徴領域のマルチスケール相関を表現することを提案する。
このようにして、機能マップの最も活発な存在を、有能な特徴として要約する。
論文 参考訳(メタデータ) (2020-06-09T04:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。