論文の概要: Spatial and Frequency Domain Adaptive Fusion Network for Image Deblurring
- arxiv url: http://arxiv.org/abs/2502.14209v1
- Date: Thu, 20 Feb 2025 02:43:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:27:31.000203
- Title: Spatial and Frequency Domain Adaptive Fusion Network for Image Deblurring
- Title(参考訳): 画像劣化のための空間・周波数領域適応核融合ネットワーク
- Authors: Hu Gao, Depeng Dang,
- Abstract要約: Image Deblurringは、対応するぼやけた画像から潜むシャープなイメージを再構築することを目的としている。
本稿では、この制限に対応するために、空間周波数領域適応核融合ネットワーク(SFAFNet)を提案する。
我々のSFAFNetは、一般的に使用されているベンチマークにおける最先端のアプローチと比較して好意的に機能する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Image deblurring aims to reconstruct a latent sharp image from its corresponding blurred one. Although existing methods have achieved good performance, most of them operate exclusively in either the spatial domain or the frequency domain, rarely exploring solutions that fuse both domains. In this paper, we propose a spatial-frequency domain adaptive fusion network (SFAFNet) to address this limitation. Specifically, we design a gated spatial-frequency domain feature fusion block (GSFFBlock), which consists of three key components: a spatial domain information module, a frequency domain information dynamic generation module (FDGM), and a gated fusion module (GFM). The spatial domain information module employs the NAFBlock to integrate local information. Meanwhile, in the FDGM, we design a learnable low-pass filter that dynamically decomposes features into separate frequency subbands, capturing the image-wide receptive field and enabling the adaptive exploration of global contextual information. Additionally, to facilitate information flow and the learning of complementary representations. In the GFM, we present a gating mechanism (GATE) to re-weight spatial and frequency domain features, which are then fused through the cross-attention mechanism (CAM). Experimental results demonstrate that our SFAFNet performs favorably compared to state-of-the-art approaches on commonly used benchmarks.
- Abstract(参考訳): Image Deblurringは、対応するぼやけた画像から潜むシャープなイメージを再構築することを目的としている。
既存の手法は優れた性能を保っているが、そのほとんどは空間領域または周波数領域でのみ動作しており、両方の領域を融合する解を探索することは稀である。
本稿では、この制限に対処する空間周波数領域適応核融合ネットワーク(SFAFNet)を提案する。
具体的には、空間領域情報モジュール、周波数領域情報動的生成モジュール(FDGM)、ゲート融合モジュール(GFM)の3つの主要な構成要素からなるゲート型空間周波数領域特徴融合ブロック(GSFFBlock)を設計する。
空間領域情報モジュールはNAFBlockを使用してローカル情報を統合する。
一方、FDGMでは、動的に特徴を周波数サブバンドに分解する学習可能なローパスフィルタを設計し、画像全体の受容領域をキャプチャし、グローバルな文脈情報の適応的な探索を可能にする。
さらに、情報の流れや補完表現の学習を容易にする。
GFMでは、空間及び周波数領域の特徴を再重み付けするためのゲーティング機構(GATE)を提示し、それをクロスアテンション機構(CAM)を介して融合する。
実験結果から,我々のSFAFNetは,一般的なベンチマークにおける最先端のアプローチと比較して好適に動作していることが示された。
関連論文リスト
- United Domain Cognition Network for Salient Object Detection in Optical Remote Sensing Images [21.76732661032257]
周波数領域と空間領域のグローバルローカル情報を共同で探索する新しい統一ドメイン認知ネットワーク(UDCNet)を提案する。
実験結果から提案したUDCNetが24種類の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-11T04:12:27Z) - SFDFusion: An Efficient Spatial-Frequency Domain Fusion Network for Infrared and Visible Image Fusion [11.46957526079837]
赤外線と可視画像の融合は、目立ったターゲットと豊かなテクスチャの詳細を持つ融合画像を生成することを目的としている。
本稿では、赤外・可視画像融合のための効率的な空間周波数領域融合ネットワークを提案する。
本手法は,様々な融合計測値と視覚効果に有意な利点を有する融合画像を生成する。
論文 参考訳(メタデータ) (2024-10-30T09:17:23Z) - Accelerated Multi-Contrast MRI Reconstruction via Frequency and Spatial Mutual Learning [50.74383395813782]
本稿では,周波数・空間相互学習ネットワーク(FSMNet)を提案する。
提案したFSMNetは, 加速度係数の異なるマルチコントラストMR再構成タスクに対して, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T12:02:47Z) - Frequency-Spatial Entanglement Learning for Camouflaged Object Detection [34.426297468968485]
既存の手法では、複雑な設計で空間的特徴の識別能力を最大化することにより、画素類似性の影響を減らそうとしている。
本稿では,周波数領域と空間領域の表現を共同で探索し,周波数空間の絡み合い学習(FSEL)手法を提案する。
我々の実験は、広く使われている3つのデータセットにおける包括的量的および質的比較を通じて、21以上の最先端手法によるFSELの優位性を実証した。
論文 参考訳(メタデータ) (2024-09-03T07:58:47Z) - Exploring Richer and More Accurate Information via Frequency Selection for Image Restoration [0.0]
空間および周波数領域の知識をシームレスに統合するマルチスケール周波数選択ネットワーク(MSFSNet)を導入する。
我々のMSFSNetは最先端のアルゴリズムに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2024-07-12T03:10:08Z) - SFFNet: A Wavelet-Based Spatial and Frequency Domain Fusion Network for Remote Sensing Segmentation [9.22384870426709]
本稿ではSFFNet(Spatial and Frequency Domain Fusion Network)フレームワークを提案する。
第1段階は空間的手法を用いて特徴を抽出し、十分な空間的詳細と意味情報を持つ特徴を得る。
第2段階は、これらの特徴を空間領域と周波数領域の両方にマッピングする。
SFFNetはmIoUの点で優れた性能を示し、それぞれ84.80%と87.73%に達した。
論文 参考訳(メタデータ) (2024-05-03T10:47:56Z) - A Dual Domain Multi-exposure Image Fusion Network based on the
Spatial-Frequency Integration [57.14745782076976]
マルチ露光画像融合は、異なる露光で画像を統合することにより、単一の高ダイナミック画像を生成することを目的としている。
本稿では,MEF-SFI と呼ばれる空間周波数統合フレームワークによるマルチ露光画像融合の新たな視点を提案する。
提案手法は,最先端のマルチ露光画像融合手法に対する視覚的近似核融合結果を実現する。
論文 参考訳(メタデータ) (2023-12-17T04:45:15Z) - Unified Frequency-Assisted Transformer Framework for Detecting and
Grounding Multi-Modal Manipulation [109.1912721224697]
本稿では、DGM4問題に対処するため、UFAFormerという名前のUnified Frequency-Assisted TransFormerフレームワークを提案する。
離散ウェーブレット変換を利用して、画像を複数の周波数サブバンドに分解し、リッチな顔偽造品をキャプチャする。
提案する周波数エンコーダは、帯域内およびバンド間自己アテンションを組み込んだもので、多種多様なサブバンド内および多種多様なフォージェリー特徴を明示的に集約する。
論文 参考訳(メタデータ) (2023-09-18T11:06:42Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Spatial-Frequency U-Net for Denoising Diffusion Probabilistic Models [89.76587063609806]
画素空間の代わりにウェーブレット空間における拡散確率モデル(DDPM)を視覚合成のために検討した。
ウェーブレット信号を明示的にモデル化することで、我々のモデルは複数のデータセット上でより高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-27T06:53:16Z) - TBNet:Two-Stream Boundary-aware Network for Generic Image Manipulation
Localization [49.521622399483846]
汎用画像操作のローカライゼーションのための新しいエンド・ツー・エンド2ストリーム境界対応ネットワーク(TBNet)を提案する。
提案したTBNetは、MCCとF1の両方の観点から、最先端の汎用画像操作のローカライズ手法を大幅に上回ることができる。
論文 参考訳(メタデータ) (2021-08-10T08:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。