論文の概要: Noise-Aware and Dynamically Adaptive Federated Defense Framework for SAR Image Target Recognition
- arxiv url: http://arxiv.org/abs/2601.00900v1
- Date: Wed, 31 Dec 2025 17:24:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.837979
- Title: Noise-Aware and Dynamically Adaptive Federated Defense Framework for SAR Image Target Recognition
- Title(参考訳): SAR画像認識のための雑音認識と動的適応型フェデレーション・ディフェンス・フレームワーク
- Authors: Yuchao Hou, Zixuan Zhang, Jie Wang, Wenke Huang, Lianhui Liang, Di Wu, Zhiquan Liu, Youliang Tian, Jianming Zhu, Jisheng Dang, Junhao Dong, Zhongliang Guo,
- Abstract要約: フェデレートラーニング(FL)は、SAR画像目標認識のための新しい計算知能パラダイムを提供する。
FLは、悪意のあるクライアントがSARの乗法的スペックルノイズを利用してバックドアトリガーを隠すという重大なセキュリティリスクに直面している。
本稿では、周波数領域、空間領域、クライアント行動分析を統合したノイズ認識および動的適応型連合防衛フレームワークNADAFDを提案する。
- 参考スコア(独自算出の注目度): 41.71964972109509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a critical application of computational intelligence in remote sensing, deep learning-based synthetic aperture radar (SAR) image target recognition facilitates intelligent perception but typically relies on centralized training, where multi-source SAR data are uploaded to a single server, raising privacy and security concerns. Federated learning (FL) provides an emerging computational intelligence paradigm for SAR image target recognition, enabling cross-site collaboration while preserving local data privacy. However, FL confronts critical security risks, where malicious clients can exploit SAR's multiplicative speckle noise to conceal backdoor triggers, severely challenging the robustness of the computational intelligence model. To address this challenge, we propose NADAFD, a noise-aware and dynamically adaptive federated defense framework that integrates frequency-domain, spatial-domain, and client-behavior analyses to counter SAR-specific backdoor threats. Specifically, we introduce a frequency-domain collaborative inversion mechanism to expose cross-client spectral inconsistencies indicative of hidden backdoor triggers. We further design a noise-aware adversarial training strategy that embeds $Γ$-distributed speckle characteristics into mask-guided adversarial sample generation to enhance robustness against both backdoor attacks and SAR speckle noise. In addition, we present a dynamic health assessment module that tracks client update behaviors across training rounds and adaptively adjusts aggregation weights to mitigate evolving malicious contributions. Experiments on MSTAR and OpenSARShip datasets demonstrate that NADAFD achieves higher accuracy on clean test samples and a lower backdoor attack success rate on triggered inputs than existing federated backdoor defenses for SAR target recognition.
- Abstract(参考訳): リモートセンシングにおけるコンピュータインテリジェンスの重要な応用として、ディープラーニングベースの合成開口レーダ(SAR)イメージターゲット認識は、インテリジェントな認識を促進するが、典型的には集中型トレーニングに依存し、複数のソースSARデータが単一のサーバにアップロードされ、プライバシとセキュリティ上の懸念が高まる。
フェデレートラーニング(FL)は、SARイメージターゲット認識のための新しい計算知能パラダイムを提供する。
しかし、FLは、悪意のあるクライアントがSARの乗法的スペックルノイズを利用してバックドアトリガーを隠蔽し、コンピュータインテリジェンスモデルの堅牢性を著しく困難にする、重大なセキュリティリスクに直面している。
この課題に対処するために、周波数領域、空間領域、クライアント-行動分析を統合してSAR固有のバックドア脅威に対処するノイズ認識および動的適応型連邦防衛フレームワークであるNADAFDを提案する。
具体的には、隠れたバックドアトリガを示すクロスクライアントスペクトルの不整合を露呈する周波数領域協調インバージョン機構を提案する。
さらに,バックドア攻撃とSARスペックル騒音に対する頑健性を高めるため,マスク誘導対向サンプル生成に$$$の分散スペックル特性を組み込んだノイズ認識対向トレーニング戦略を設計する。
さらに、トレーニングラウンド全体でクライアントの更新動作を追跡し、アグリゲーションの重み付けを適応的に調整し、悪意あるコントリビューションの進化を緩和する動的ヘルスアセスメントモジュールを提案する。
MSTARとOpenSARShipデータセットの実験により、NADAFDはクリーンなテストサンプルに対して高い精度を実現し、トリガインプットに対するバックドア攻撃の成功率は、既存のSAR目標認識用バックドアディフェンスよりも低いことが示されている。
関連論文リスト
- FAROS: Robust Federated Learning with Adaptive Scaling against Backdoor Attacks [9.466036066320946]
バックドア攻撃は連邦学習(FL)に重大な脅威をもたらす
適応微分スケーリング(ADS)とロバストコアセットコンピューティング(RCC)を組み合わせた拡張FLフレームワークであるFAROSを提案する。
RCCは、最も信頼性の高いクライアントからなるコアセットのセントロイドを計算することで、単一ポイント障害のリスクを効果的に軽減する。
論文 参考訳(メタデータ) (2026-01-05T06:55:35Z) - Towards Effective, Stealthy, and Persistent Backdoor Attacks Targeting Graph Foundation Models [62.87838888016534]
Graph Foundation Models(GFM)は、さまざまなソースドメインで事前トレーニングされ、目に見えないターゲットに適応する。
GFMに対するバックドア攻撃は、3つの主要な課題のために簡単ではない。
グラフ基礎モデルに対する新たなバックドア攻撃モデルであるGFM-BAを提案する。
論文 参考訳(メタデータ) (2025-11-22T08:52:09Z) - Your RAG is Unfair: Exposing Fairness Vulnerabilities in Retrieval-Augmented Generation via Backdoor Attacks [13.32144267469022]
Retrieval-augmented Generation (RAG)は、検索機構と生成モデルを統合することにより、現実のグラウンド化を促進する。
本稿では,2段階のバックドアアタックを通じてRAGの公平性の脆弱性を明らかにするシステムフレームワークであるBiasRAGを紹介する。
事前学習フェーズでは、クエリエンコーダが妥協され、ターゲットグループを意図した社会的バイアスに整合させ、長期的持続性を確保する。
デプロイ後の段階では、バックドアを強化するために、敵文書を知識ベースに注入する。
論文 参考訳(メタデータ) (2025-09-26T15:33:36Z) - SRD: Reinforcement-Learned Semantic Perturbation for Backdoor Defense in VLMs [57.880467106470775]
攻撃者は、トレーニングデータに知覚不能な摂動を注入することができ、モデルが悪意のある攻撃的制御されたキャプションを生成する。
本稿では,引き金の事前知識を伴わずにバックドア動作を緩和する強化学習フレームワークであるセマンティック・リワード・ディフェンス(SRD)を提案する。
SRDはDeep Q-Networkを使用して、機密画像領域に個別の摂動を適用するためのポリシーを学習し、悪意ある経路の活性化を妨害することを目的としている。
論文 参考訳(メタデータ) (2025-06-05T08:22:24Z) - Defending the Edge: Representative-Attention for Mitigating Backdoor Attacks in Federated Learning [7.808916974942399]
不均一エッジデバイスは、多種多様で非独立で、同一に分散された(非IID)データを生成する。
本稿では, 悪意のあるクライアントと良識を区別するための, FeRA という, 表現力に基づく防衛機構を提案する。
本評価では,エッジデバイスに典型的な非IIDデータ分散に挑戦するなど,さまざまなFLシナリオにおけるFeRAの堅牢性を示す。
論文 参考訳(メタデータ) (2025-05-15T13:44:32Z) - AdvSwap: Covert Adversarial Perturbation with High Frequency Info-swapping for Autonomous Driving Perception [14.326474757036925]
本稿では,ウェーブレットベースの高周波情報交換を創造的に活用する,新たな逆攻撃手法AdvSwapを提案する。
このスキームは、オリジナルラベルデータを効果的に除去し、ガイダンス画像データを取り込んで、隠蔽された堅牢な対向サンプルを生成する。
生成する敵のサンプルは、人間やアルゴリズムによっても知覚が難しい。
論文 参考訳(メタデータ) (2025-02-12T13:05:35Z) - Let the Noise Speak: Harnessing Noise for a Unified Defense Against Adversarial and Backdoor Attacks [31.291700348439175]
機械学習に対する悪意のあるデータ操作攻撃は、安全クリティカルなアプリケーションにおける信頼性を損なう。
再建型侵入検知システムであるNoiSecを提案する。
NoiSecは、テスト入力からノイズを取り除き、ノイズから基礎となる特徴を抽出し、それらを活用して、システマティックな悪意のある操作を認識する。
論文 参考訳(メタデータ) (2024-06-18T21:44:51Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。