論文の概要: DCInject: Persistent Backdoor Attacks via Frequency Manipulation in Personal Federated Learning
- arxiv url: http://arxiv.org/abs/2602.18489v1
- Date: Wed, 11 Feb 2026 17:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.617232
- Title: DCInject: Persistent Backdoor Attacks via Frequency Manipulation in Personal Federated Learning
- Title(参考訳): DCInject:個人的フェデレーション学習における周波数操作による持続的バックドア攻撃
- Authors: Nahom Birhan, Daniel Wesego, Dereje Shenkut, Frank Liu, Daniel Takabi,
- Abstract要約: PFLに対する適応周波数領域バックドアアタックであるDCInjectを提案する。
当社の攻撃は4つのデータセットにわたるクリーンな精度を維持しながら、優れた攻撃成功率を達成する。
- 参考スコア(独自算出の注目度): 3.3084450540866346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized federated learning (PFL) creates client-specific models to handle data heterogeneity. Previously, PFL has been shown to be naturally resistant to backdoor attack propagation across clients. In this work, we reveal that PFL remains vulnerable to backdoor attacks through a novel frequency-domain approach. We propose DCInject, an adaptive frequency-domain backdoor attack for PFL, which removes portions of the zero-frequency (DC) component and replaces them with Gaussian-distributed samples in the frequency domain. Our attack achieves superior attack success rates while maintaining clean accuracy across four datasets (CIFAR-10/100, GTSRB, SVHN) compared to existing spatial-domain attacks, evaluated under parameter decoupling based personalization. DCInject achieves superior performance with ASRs of 96.83% (CIFAR-10), 99.38% (SVHN), and 100% (GTSRB) while maintaining clean accuracy. Under I-BAU defense, DCInject demonstrates strong persistence, retaining 90.30% ASR vs BadNet's 58.56% on VGG-16, exposing critical vulnerabilities in PFL security assumptions. Our code is available at https://github.com/NahomMA/DCINject-PFL
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、データ不均一性を扱うクライアント固有のモデルを作成する。
これまでPFLは、クライアント間のバックドアアタックの伝播に自然に抵抗することが示されている。
本研究では,新しい周波数領域アプローチにより,PFLがバックドア攻撃に対して脆弱であることを明らかにする。
我々は、周波数領域の非周波数(DC)成分の一部を除去し、周波数領域内のガウス分布サンプルに置き換える、PFLの適応周波数領域バックドアアタックであるDCInjectを提案する。
本攻撃は,パラメータデカップリングに基づくパーソナライズにより評価された既存の空間領域攻撃と比較して,4つのデータセット(CIFAR-10/100, GTSRB, SVHN)にわたるクリーンな精度を維持しながら,攻撃成功率に優れていた。
DCInjectは96.83%(CIFAR-10)、99.38%(SVHN)、100%(GTSRB)の精度で優れた性能を発揮する。
I-BAU の防衛下では、DCInject は 90.30% ASR と BadNet の 58.56% を VGG-16 に保持し、PFL のセキュリティ上の重大な脆弱性を露呈している。
私たちのコードはhttps://github.com/NahomMA/DCINject-PFLで利用可能です。
関連論文リスト
- MARS: A Malignity-Aware Backdoor Defense in Federated Learning [51.77354308287098]
最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-21T14:50:02Z) - On Hyperparameters and Backdoor-Resistance in Horizontal Federated Learning [4.680737055399071]
HFLのバックドア攻撃と防御効果に対するハイパートレーニングの効果について検討した。
ハイパーパラメータの選択の影響と影響を示す。
提案手法は,タスクの精度を犠牲にすることなく,メインロバスト性の向上を実現する。
論文 参考訳(メタデータ) (2025-09-05T15:46:03Z) - Coward: Toward Practical Proactive Federated Backdoor Defense via Collision-based Watermark [90.94234374893287]
我々は、マルチバックドア衝突効果の発見に触発されて、Cowardと呼ばれる新しいプロアクティブディフェンスを導入する。
一般に,サーバから注入された,矛盾するグローバルな透かしが,保持されるのではなく,ローカルトレーニング中に消去されるかどうかを評価することで攻撃者を検出する。
論文 参考訳(メタデータ) (2025-08-04T06:51:33Z) - Adversarially Guided Stateful Defense Against Backdoor Attacks in Federated Deep Learning [23.469636829106317]
既存のディフェンスクラスタは、クライアントから更新を送信し、アグリゲーションに最適なクラスタを選択する。
現実的なFL設定では,SOTA(State-of-the-art Defenses)はFLのバックドア攻撃に対して良好に対処する。
本稿では,Deep Neural Networks (DNN) に対するバックドア攻撃に対するAdversarially Guided Stateful Defense (AGSD) を提案する。
論文 参考訳(メタデータ) (2024-10-15T02:45:19Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - You Can Backdoor Personalized Federated Learning [18.91908598410108]
既存の研究は主に、一般的な連合学習シナリオにおけるバックドア攻撃と防御に焦点を当てている。
本稿では,2つの単純かつ効果的な戦略からなる2段階の攻撃手法であるBapFLを提案する。
論文 参考訳(メタデータ) (2023-07-29T12:25:04Z) - Fedward: Flexible Federated Backdoor Defense Framework with Non-IID Data [14.160225621129076]
敵はデータセットを操作でき、フェデレートされたバックドア攻撃のトリガーを注入することでモデルをアップロードできる。
既存の防衛戦略では、特定の攻撃者モデルと限定的な攻撃者モデルと、緩和のみを注入する十分な量のノイズを考慮に入れている。
バックドアの除去を確実にするためのフレキシブル・フェデレート・バックドア・ディフェンス・フレームワーク(Fedward)を紹介した。
論文 参考訳(メタデータ) (2023-07-01T15:01:03Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。