論文の概要: Free-rider Attacks on Model Aggregation in Federated Learning
- arxiv url: http://arxiv.org/abs/2006.11901v5
- Date: Mon, 22 Feb 2021 14:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 11:38:44.284824
- Title: Free-rider Attacks on Model Aggregation in Federated Learning
- Title(参考訳): フェデレーション学習におけるモデルアグリゲーションに対する自由ライダー攻撃
- Authors: Yann Fraboni, Richard Vidal, Marco Lorenzi
- Abstract要約: 本稿では,反復パラメータアグリゲーションに基づくフェデレーション学習スキームに対するフリーライダー攻撃の理論的および実験的解析について紹介する。
我々は、これらの攻撃が公正な参加者の集約されたモデルに収束することを正式に保証する。
我々は,フェデレートラーニングの現実的応用において,フリーライダー攻撃を避けるための勧告を提供することで結論付けた。
- 参考スコア(独自算出の注目度): 10.312968200748116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Free-rider attacks against federated learning consist in dissimulating
participation to the federated learning process with the goal of obtaining the
final aggregated model without actually contributing with any data. This kind
of attacks is critical in sensitive applications of federated learning, where
data is scarce and the model has high commercial value. We introduce here the
first theoretical and experimental analysis of free-rider attacks on federated
learning schemes based on iterative parameters aggregation, such as FedAvg or
FedProx, and provide formal guarantees for these attacks to converge to the
aggregated models of the fair participants. We first show that a
straightforward implementation of this attack can be simply achieved by not
updating the local parameters during the iterative federated optimization. As
this attack can be detected by adopting simple countermeasures at the server
level, we subsequently study more complex disguising schemes based on
stochastic updates of the free-rider parameters. We demonstrate the proposed
strategies on a number of experimental scenarios, in both iid and non-iid
settings. We conclude by providing recommendations to avoid free-rider attacks
in real world applications of federated learning, especially in sensitive
domains where security of data and models is critical.
- Abstract(参考訳): フェデレートラーニングに対するフリーライダー攻撃は、フェデレーションラーニングプロセスへの参加をシミュレーションすることで、データに実際に貢献することなく最終的な集約モデルを取得することを目的としている。
この種の攻撃は、データが不足し、モデルが高い商用価値を持つ、連合学習のセンシティブな応用において重要である。
本稿では,fedavg や fedprox のような反復パラメータ集約に基づくフェデレート学習スキームに対する自由ライダー攻撃に関する最初の理論的および実験的解析を行い,これらの攻撃がフェア参加者の集約モデルに収束する公式な保証を提供する。
まず,反復的フェデレーション最適化中に局所パラメータを更新せずに,簡単な実装でこの攻撃を実現できることを示す。
この攻撃はサーバレベルで単純な対策を適用することで検出できるため、自由ライダーパラメータの確率的更新に基づいてより複雑な嫌がらせスキームを研究できる。
提案手法は, iid と non-iid の両方の設定において,様々な実験シナリオで実証する。
我々は、特にデータとモデルのセキュリティが重要であるセンシティブな領域において、実世界におけるフェデレーション学習の応用において、フリーライダー攻撃を避けるためのレコメンデーションを提供することで締めくくった。
関連論文リスト
- Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Model Hijacking Attack in Federated Learning [19.304332176437363]
HijackFLは、フェデレートラーニングにおけるグローバルモデルに対する、第一級のハイジャック攻撃である。
それは、サーバや良心的なクライアントの通知なしに、グローバルモデルが元のタスクとは異なるタスクを実行するように強制することを目的としています。
4つのベンチマークデータセットと3つの人気のあるモデルについて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-04T20:02:07Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Mitigating Data Injection Attacks on Federated Learning [20.24380409762923]
フェデレートラーニング(Federated Learning)は、複数のエンティティがデータを使ってモデルを協調的にトレーニングすることを可能にするテクニックである。
その利点にもかかわらず、フェデレートされた学習は偽のデータ注入攻撃の影響を受けやすい。
本稿では,フェデレート学習システムにおけるデータインジェクション攻撃の検出と緩和を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T18:26:31Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - ARFED: Attack-Resistant Federated averaging based on outlier elimination [0.0]
フェデレートラーニングでは、各参加者はローカルモデルを独自のデータで訓練し、信頼されたサーバでグローバルモデルを形成する。
サーバは、プライバシを確保するために参加者のトレーニング手順に効果と可視性がないため、グローバルモデルはデータ中毒やモデル中毒などの攻撃に対して脆弱になる。
我々は,データ配信や参加者の類似性,悪意のある参加者の比率などの仮定を一切含まない ARFED という防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-08T15:00:44Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。