論文の概要: Fedward: Flexible Federated Backdoor Defense Framework with Non-IID Data
- arxiv url: http://arxiv.org/abs/2307.00356v1
- Date: Sat, 1 Jul 2023 15:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 16:35:11.818021
- Title: Fedward: Flexible Federated Backdoor Defense Framework with Non-IID Data
- Title(参考訳): Fedward: 非IIDデータによるフレキシブルなフェデレーションバックドアディフェンスフレームワーク
- Authors: Zekai Chen, Fuyi Wang, Zhiwei Zheng, Ximeng Liu, Yujie Lin
- Abstract要約: 敵はデータセットを操作でき、フェデレートされたバックドア攻撃のトリガーを注入することでモデルをアップロードできる。
既存の防衛戦略では、特定の攻撃者モデルと限定的な攻撃者モデルと、緩和のみを注入する十分な量のノイズを考慮に入れている。
バックドアの除去を確実にするためのフレキシブル・フェデレート・バックドア・ディフェンス・フレームワーク(Fedward)を紹介した。
- 参考スコア(独自算出の注目度): 14.160225621129076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables multiple clients to collaboratively train
deep learning models while considering sensitive local datasets' privacy.
However, adversaries can manipulate datasets and upload models by injecting
triggers for federated backdoor attacks (FBA). Existing defense strategies
against FBA consider specific and limited attacker models, and a sufficient
amount of noise to be injected only mitigates rather than eliminates FBA. To
address these deficiencies, we introduce a Flexible Federated Backdoor Defense
Framework (Fedward) to ensure the elimination of adversarial backdoors. We
decompose FBA into various attacks, and design amplified magnitude
sparsification (AmGrad) and adaptive OPTICS clustering (AutoOPTICS) to address
each attack. Meanwhile, Fedward uses the adaptive clipping method by regarding
the number of samples in the benign group as constraints on the boundary. This
ensures that Fedward can maintain the performance for the Non-IID scenario. We
conduct experimental evaluations over three benchmark datasets and thoroughly
compare them to state-of-the-art studies. The results demonstrate the promising
defense performance from Fedward, moderately improved by 33% $\sim$ 75 in
clustering defense methods, and 96.98%, 90.74%, and 89.8% for Non-IID to the
utmost extent for the average FBA success rate over MNIST, FMNIST, and CIFAR10,
respectively.
- Abstract(参考訳): federated learning(fl)は、機密性の高いローカルデータセットのプライバシを考慮しながら、複数のクライアントが共同でディープラーニングモデルをトレーニング可能にする。
しかし、敵はフェデレーションバックドアアタック(fba)のトリガーを注入することでデータセットを操作し、モデルをアップロードすることができる。
既存のFBAに対する防衛戦略では、特定の攻撃モデルと限定的な攻撃モデルが考慮されており、FBAを除去するよりも、十分な量のノイズが注入される。
これらの欠陥に対処するために、敵のバックドアの排除を保証するフレキシブル・フェデレーション・バックドア・ディフェンス・フレームワーク(Fedward)を導入する。
我々は、FBAを様々な攻撃に分解し、各攻撃に対応するために、AmGrad(Am Grad)と適応OPTICSクラスタリング(AutoOPTICS)を設計する。
一方、Fedwardは、境界上の制約として良性群のサンプル数についてアダプティブクリッピング法を用いる。
これにより、Fedwardは非IIDシナリオのパフォーマンスを維持できる。
3つのベンチマークデータセットを実験的に評価し,それを最先端の研究と比較した。
その結果,feedwardが有望な防御性能を示し,クラスタリング防御法で33%$\sim$ 75,非iidで96.98%,90.74%,89.8%,mnist,fmnist,cifar10に対して平均的なfba成功率が最も低い値となった。
関連論文リスト
- Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FedVal: Different good or different bad in federated learning [9.558549875692808]
フェデレート・ラーニング(FL)システムは悪意のあるアクターからの攻撃を受けやすい。
FLは、異なる人口集団の公正なパフォーマンスを保証するなど、グループの偏見に対処する上で、新たな課題を提起する。
このようなバイアスに対処するために使用される従来の方法は、FLシステムが持っていないデータへの集中的なアクセスを必要とする。
我々は、クライアントからの追加情報を必要としない堅牢性と公正性の両方に対して、新しいアプローチであるFedValを提案する。
論文 参考訳(メタデータ) (2023-06-06T22:11:13Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。