論文の概要: Dynamic Frequency Feature Fusion Network for Multi-Source Remote Sensing Data Classification
- arxiv url: http://arxiv.org/abs/2507.04510v1
- Date: Sun, 06 Jul 2025 19:14:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.219227
- Title: Dynamic Frequency Feature Fusion Network for Multi-Source Remote Sensing Data Classification
- Title(参考訳): マルチソースリモートセンシングデータ分類のための動的周波数特徴融合ネットワーク
- Authors: Yikang Zhao, Feng Gao, Xuepeng Jin, Junyu Dong, Qian Du,
- Abstract要約: ハイパースペクトル画像(HSI)と合成開口レーダ(SAR)のための動的周波数特徴融合ネットワーク(DFFNet)を提案する。
具体的には、入力特徴を集約することで周波数領域のフィルタカーネルを動的に学習する動的フィルタブロックを設計する。
2つのベンチマークデータセットの実験により、DFFNetはマルチソースデータ分類における最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 32.953456430800685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-source data classification is a critical yet challenging task for remote sensing image interpretation. Existing methods lack adaptability to diverse land cover types when modeling frequency domain features. To this end, we propose a Dynamic Frequency Feature Fusion Network (DFFNet) for hyperspectral image (HSI) and Synthetic Aperture Radar (SAR) / Light Detection and Ranging (LiDAR) data joint classification. Specifically, we design a dynamic filter block to dynamically learn the filter kernels in the frequency domain by aggregating the input features. The frequency contextual knowledge is injected into frequency filter kernels. Additionally, we propose spectral-spatial adaptive fusion block for cross-modal feature fusion. It enhances the spectral and spatial attention weight interactions via channel shuffle operation, thereby providing comprehensive cross-modal feature fusion. Experiments on two benchmark datasets show that our DFFNet outperforms state-of-the-art methods in multi-source data classification. The codes will be made publicly available at https://github.com/oucailab/DFFNet.
- Abstract(参考訳): マルチソースデータ分類は,リモートセンシング画像解釈において重要な課題である。
既存の手法では、周波数領域の特徴をモデル化する際に、多様な土地被覆タイプへの適応性が欠如している。
そこで本研究では,高スペクトル画像(HSI)と合成開口レーダ(SAR)のための動的周波数特徴融合ネットワーク(DFFNet)を提案する。
具体的には、入力特徴を集約することで周波数領域のフィルタカーネルを動的に学習する動的フィルタブロックを設計する。
周波数文脈知識は周波数フィルタカーネルに注入される。
さらに,クロスモーダルな特徴融合のためのスペクトル空間適応核融合ブロックを提案する。
これにより、チャネルシャッフル操作によるスペクトルおよび空間的注目重量相互作用が強化され、包括的なクロスモーダルな特徴融合が提供される。
2つのベンチマークデータセットの実験により、DFFNetはマルチソースデータ分類における最先端の手法より優れていることが示された。
コードはhttps://github.com/oucailab/DFFNet.comで公開される。
関連論文リスト
- CasDyF-Net: Image Dehazing via Cascaded Dynamic Filters [0.0]
イメージデハジングは、大気の散乱と吸収効果を低減し、画像の明瞭さと視覚的品質を回復することを目的としている。
動的フィルタリングに着想を得て,マルチブランチネットワークを構築するためにカスケード動的フィルタを提案する。
RESIDE、Haze4K、O-Hazeのデータセットの実験は、我々の方法の有効性を検証する。
論文 参考訳(メタデータ) (2024-09-13T03:20:38Z) - Hierarchical Attention and Parallel Filter Fusion Network for Multi-Source Data Classification [33.26466989592473]
マルチソースデータ分類のための階層的注意と並列フィルタ融合ネットワークを提案する。
提案手法は,各データセットの総合精度(OA)の91.44%と80.51%を達成する。
論文 参考訳(メタデータ) (2024-08-22T23:14:22Z) - Exploring Richer and More Accurate Information via Frequency Selection for Image Restoration [0.0]
空間および周波数領域の知識をシームレスに統合するマルチスケール周波数選択ネットワーク(MSFSNet)を導入する。
我々のMSFSNetは最先端のアルゴリズムに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2024-07-12T03:10:08Z) - Frequency-Aware Deepfake Detection: Improving Generalizability through
Frequency Space Learning [81.98675881423131]
この研究は、目に見えないディープフェイク画像を効果的に識別できるユニバーサルディープフェイク検出器を開発するという課題に対処する。
既存の周波数ベースのパラダイムは、偽造検出のためにGANパイプラインのアップサンプリング中に導入された周波数レベルのアーティファクトに依存している。
本稿では、周波数領域学習を中心にしたFreqNetと呼ばれる新しい周波数認識手法を導入し、ディープフェイク検出器の一般化性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-03-12T01:28:00Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Adaptive Frequency Learning in Two-branch Face Forgery Detection [66.91715092251258]
本稿では、AFDと呼ばれる2分岐検出フレームワークにおいて、周波数情報を適応的に学習する手法を提案する。
我々は、固定周波数変換からネットワークを解放し、データおよびタスク依存の変換層でより良いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-27T14:25:52Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。