論文の概要: pFedDef: Defending Grey-Box Attacks for Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2209.08412v1
- Date: Sat, 17 Sep 2022 21:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 20:07:40.841507
- Title: pFedDef: Defending Grey-Box Attacks for Personalized Federated Learning
- Title(参考訳): pFedDef: 個人化フェデレーション学習のためのGrey-Box攻撃の回避
- Authors: Taejin Kim, Shubhranshu Singh, Nikhil Madaan and Carlee Joe-Wong
- Abstract要約: 敵のクライアントは 他のクライアントを騙すために テスト時に脱出攻撃を仕掛ける
敵対的クライアントは、分散学習法に基づくパーソナライゼーションの度合いが異なる。
我々は,資源制限を尊重しながら個人化された対人訓練を行う防衛機構,pFedDefを導入する。
- 参考スコア(独自算出の注目度): 14.799941756634976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized federated learning allows for clients in a distributed system to
train a neural network tailored to their unique local data while leveraging
information at other clients. However, clients' models are vulnerable to
attacks during both the training and testing phases. In this paper we address
the issue of adversarial clients crafting evasion attacks at test time to
deceive other clients. For example, adversaries may aim to deceive spam filters
and recommendation systems trained with personalized federated learning for
monetary gain. The adversarial clients have varying degrees of personalization
based on the method of distributed learning, leading to a "grey-box" situation.
We are the first to characterize the transferability of such internal evasion
attacks for different learning methods and analyze the trade-off between model
accuracy and robustness depending on the degree of personalization and
similarities in client data. We introduce a defense mechanism, pFedDef, that
performs personalized federated adversarial training while respecting resource
limitations at clients that inhibit adversarial training. Overall, pFedDef
increases relative grey-box adversarial robustness by 62% compared to federated
adversarial training and performs well even under limited system resources.
- Abstract(参考訳): パーソナライズされた連合学習は、分散システムのクライアントが独自のローカルデータに合わせてニューラルネットワークをトレーニングし、他のクライアントの情報を活用することを可能にする。
しかし、クライアントのモデルは、トレーニングフェーズとテストフェーズの両方で攻撃に弱い。
本稿では,他のクライアントを欺くために,テスト時に回避攻撃を仕掛ける敵クライアントの問題に対処する。
例えば、対戦相手はスパムフィルタや、個人化されたフェデレーション学習で訓練されたレコメンデーションシステムを騙して金銭的利益を得る。
対立するクライアントは、分散学習法に基づいて、パーソナライゼーションの度合いが異なるため、"グレーボックス"の状況につながる。
我々は,このような内部回避攻撃の伝達性を,異なる学習法で特徴付け,個人化の程度やクライアントデータの類似度に応じてモデル精度と頑健性のトレードオフを解析した。
我々は,対人訓練を抑制するクライアントのリソース制限を尊重しながら,個人化された対人訓練を行う防衛機構,pFedDefを導入する。
全体として、pFedDefは、連合型対人訓練と比較して、相対的なグレイボックス対人ロバストネスを62%増加させ、限られたシステムリソースの下でも良好に機能する。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - Ensemble Federated Adversarial Training with Non-IID data [1.5878082907673585]
敵対的なサンプルは、悪意のある目的を達成するためにクライアントモデルを混乱させ、騙すことができます。
本稿では, EFAT(Ensemble Federated Adversarial Training Method)について紹介する。
提案手法は,フェデレーション学習と敵対的アプローチを単独で組み合わせた場合と比較して,有望な結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T03:55:20Z) - Dynamic Defense Against Byzantine Poisoning Attacks in Federated
Learning [11.117880929232575]
フェデレート・ラーニングはビザチンによる敵対的な攻撃に弱い。
本稿では,これらのクライアントを動的に破棄する動的集約演算子を提案する。
その結果,集約するクライアントの動的選択により,グローバル学習モデルの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-29T18:02:11Z) - A Framework for Evaluating Gradient Leakage Attacks in Federated
Learning [14.134217287912008]
Federated Learning(FL)は、クライアントのネットワークと協調的なモデルトレーニングのための、新興の分散機械学習フレームワークである。
最近の研究では、クライアントからフェデレーションサーバにローカルパラメータの更新を共有しても、グラデーションリーク攻撃の影響を受けやすいことが示されている。
本稿では,クライアントプライバシ漏洩攻撃のさまざまな形態の評価と比較を行うための原則的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-22T05:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。