論文の概要: On the Out-of-Distribution Backdoor Attack for Federated Learning
- arxiv url: http://arxiv.org/abs/2509.13219v1
- Date: Tue, 16 Sep 2025 16:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.172953
- Title: On the Out-of-Distribution Backdoor Attack for Federated Learning
- Title(参考訳): フェデレーション学習におけるアウト・オブ・ディストリビューション・バックドア・アタックについて
- Authors: Jiahao Xu, Zikai Zhang, Rui Hu,
- Abstract要約: 我々は,アウト・オブ・ディストリビューション・バックドア・アタック(mathttOBA$)と呼ばれる,連邦学習(FL)のための新しいバックドア・アタック・プロトタイプを紹介する。
本手法はFLのバックドア攻撃シナリオの範囲を大きく広げる。
私たちは$mathttBNGuard$を紹介します。
- 参考スコア(独自算出の注目度): 11.027326855396288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional backdoor attacks in federated learning (FL) operate within constrained attack scenarios, as they depend on visible triggers and require physical modifications to the target object, which limits their practicality. To address this limitation, we introduce a novel backdoor attack prototype for FL called the out-of-distribution (OOD) backdoor attack ($\mathtt{OBA}$), which uses OOD data as both poisoned samples and triggers simultaneously. Our approach significantly broadens the scope of backdoor attack scenarios in FL. To improve the stealthiness of $\mathtt{OBA}$, we propose $\mathtt{SoDa}$, which regularizes both the magnitude and direction of malicious local models during local training, aligning them closely with their benign versions to evade detection. Empirical results demonstrate that $\mathtt{OBA}$ effectively circumvents state-of-the-art defenses while maintaining high accuracy on the main task. To address this security vulnerability in the FL system, we introduce $\mathtt{BNGuard}$, a new server-side defense method tailored against $\mathtt{SoDa}$. $\mathtt{BNGuard}$ leverages the observation that OOD data causes significant deviations in the running statistics of batch normalization layers. This allows $\mathtt{BNGuard}$ to identify malicious model updates and exclude them from aggregation, thereby enhancing the backdoor robustness of FL. Extensive experiments across various settings show the effectiveness of $\mathtt{BNGuard}$ on defending against $\mathtt{SoDa}$. The code is available at https://github.com/JiiahaoXU/SoDa-BNGuard.
- Abstract(参考訳): 連邦学習(FL)における従来のバックドア攻撃は、目に見えるトリガーに依存し、ターゲットオブジェクトへの物理的変更を必要とするため、制約された攻撃シナリオ内で機能する。
この制限に対処するため,本研究では,OODデータを有毒試料とトリガの両方に同時に使用する,オフ・オブ・ディストリビューション(OOD)バックドアアタック(\mathtt{OBA}$)と呼ばれる,FL用の新しいバックドアアタックプロトタイプを紹介した。
本手法はFLのバックドア攻撃シナリオの範囲を大きく広げる。
ローカルトレーニング中に悪質なローカルモデルの規模と方向の両方を正規化し、良質なバージョンと密に整列して検出を回避する。
実験の結果、$\mathtt{OBA}$は、主要なタスクに対して高い精度を維持しながら、最先端の防御を効果的に回避することを示した。
FLシステムのこのセキュリティ脆弱性に対処するために、$\matht{BNGuard}$を導入します。
$\mathtt{BNGuard}$は、OODデータがバッチ正規化層の実行統計に重大なずれを引き起こすという観察を活用する。
これにより、$\mathtt{BNGuard}$で悪意のあるモデル更新を特定し、それらを集約から除外し、FLのバックドアロバスト性を高めることができる。
様々な設定にわたる大規模な実験は、$\mathtt{BNGuard}$が$\mathtt{SoDa}$に対する防御効果を示す。
コードはhttps://github.com/JiiahaoXU/SoDa-BNGuardで公開されている。
関連論文リスト
- Coward: Toward Practical Proactive Federated Backdoor Defense via Collision-based Watermark [90.94234374893287]
我々は、マルチバックドア衝突効果の発見に触発されて、Cowardと呼ばれる新しいプロアクティブディフェンスを導入する。
一般に,サーバから注入された,矛盾するグローバルな透かしが,保持されるのではなく,ローカルトレーニング中に消去されるかどうかを評価することで攻撃者を検出する。
論文 参考訳(メタデータ) (2025-08-04T06:51:33Z) - Mind the Cost of Scaffold! Benign Clients May Even Become Accomplices of Backdoor Attack [16.104941796138128]
BadSFLはScaffoldをターゲットにした最初のバックドア攻撃である。
攻撃者の毒殺方向へのクライアントの局所的な勾配更新を無視し、効果的に無知の共犯者へと変える。
BadSFLは攻撃耐久性に優れ、60回以上のグローバルラウンドで有効性を維持し、既存のベースラインの最大3倍の長寿命を維持できる。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - T2IShield: Defending Against Backdoors on Text-to-Image Diffusion Models [70.03122709795122]
バックドア攻撃の検出, 局所化, 緩和のための総合防御手法T2IShieldを提案する。
バックドアトリガーによって引き起こされた横断アテンションマップの「アシミレーション現象」を見いだす。
バックドアサンプル検出のために、T2IShieldは計算コストの低い88.9$%のF1スコアを達成している。
論文 参考訳(メタデータ) (2024-07-05T01:53:21Z) - SynGhost: Invisible and Universal Task-agnostic Backdoor Attack via Syntactic Transfer [22.77860269955347]
事前トレーニングは、データやトレーニングメカニズムの脆弱性によるタスク非依存のバックドア攻撃に悩まされる。
我々は,シンタクティックトランスファーによる,目に見えない,普遍的なタスク非依存のバックドアアタックである$mathttSynGhost$を提案する。
$mathttSynGhost$は、コントラスト学習に基づいて最適なターゲットを適応的に選択し、トレーニング前の空間に均一な分布を生成する。
論文 参考訳(メタデータ) (2024-02-29T08:20:49Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture [11.908715869667445]
Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
FL中、攻撃者が訓練されたモデルにバックドアを注入できることが示されている。
我々は、スマートコントラクトを使用して攻撃者を自動的に検出し、処罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-14T22:43:39Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。