論文の概要: ACE: A Model Poisoning Attack on Contribution Evaluation Methods in Federated Learning
- arxiv url: http://arxiv.org/abs/2405.20975v1
- Date: Fri, 31 May 2024 16:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 13:39:10.581209
- Title: ACE: A Model Poisoning Attack on Contribution Evaluation Methods in Federated Learning
- Title(参考訳): ACE:フェデレーション学習におけるコントリビューション評価手法に対するモデル攻撃
- Authors: Zhangchen Xu, Fengqing Jiang, Luyao Niu, Jinyuan Jia, Bo Li, Radha Poovendran,
- Abstract要約: フェデレートラーニング(FL)では、クライアントのセットが、ローカルトレーニングデータを共有することなく、機械学習モデル(グローバルモデルと呼ばれる)を協調的にトレーニングする。
本研究は, FL におけるコントリビューション評価手法であるACE を用いた第1モデル毒殺攻撃を提案する。
その結果,ACEは5つの最先端コントリビューション評価手法を効果的に,かつ効果的に認識していることがわかった。
- 参考スコア(独自算出の注目度): 30.02183394231136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Federated Learning (FL), a set of clients collaboratively train a machine learning model (called global model) without sharing their local training data. The local training data of clients is typically non-i.i.d. and heterogeneous, resulting in varying contributions from individual clients to the final performance of the global model. In response, many contribution evaluation methods were proposed, where the server could evaluate the contribution made by each client and incentivize the high-contributing clients to sustain their long-term participation in FL. Existing studies mainly focus on developing new metrics or algorithms to better measure the contribution of each client. However, the security of contribution evaluation methods of FL operating in adversarial environments is largely unexplored. In this paper, we propose the first model poisoning attack on contribution evaluation methods in FL, termed ACE. Specifically, we show that any malicious client utilizing ACE could manipulate the parameters of its local model such that it is evaluated to have a high contribution by the server, even when its local training data is indeed of low quality. We perform both theoretical analysis and empirical evaluations of ACE. Theoretically, we show our design of ACE can effectively boost the malicious client's perceived contribution when the server employs the widely-used cosine distance metric to measure contribution. Empirically, our results show ACE effectively and efficiently deceive five state-of-the-art contribution evaluation methods. In addition, ACE preserves the accuracy of the final global models on testing inputs. We also explore six countermeasures to defend ACE. Our results show they are inadequate to thwart ACE, highlighting the urgent need for new defenses to safeguard the contribution evaluation methods in FL.
- Abstract(参考訳): フェデレートラーニング(FL)では、クライアントのセットが、ローカルトレーニングデータを共有することなく、機械学習モデル(グローバルモデルと呼ばれる)を協調的にトレーニングする。
クライアントのローカルトレーニングデータは一般的に非i.d.d.と異種であり、結果としてグローバルモデルの最終性能に対する個々のクライアントからの様々な貢献をもたらす。
これに対し、サーバが各クライアントのコントリビューションを評価し、FLへの長期参加を継続するためにハイコントリビューションクライアントにインセンティブを与える、多くのコントリビューション評価手法が提案された。
既存の研究は主に、各クライアントの貢献度をよりよく測定する新しいメトリクスやアルゴリズムの開発に焦点を当てている。
しかし, 相手環境におけるFLのコントリビューション評価手法の安全性は明らかにされていない。
本稿では,FLにおけるコントリビューション評価手法であるACEを用いた最初のモデル毒殺攻撃を提案する。
具体的には、ACEを利用する悪意のあるクライアントがローカルモデルのパラメータを操作できることを示し、ローカルのトレーニングデータが実際に品質の低い場合でも、サーバが高いコントリビューションを持つように評価する。
我々はACEの理論的解析と経験的評価の両方を行う。
理論的には、ACEの設計は、サーバが広く使われているコサイン距離メートル法を用いて貢献を測定する際に、悪意あるクライアントの貢献を効果的に促進できることを示している。
実験により,ACEは5つの最先端コントリビューション評価手法を効果的に,効果的に活用できることを示した。
さらに、ACEは入力のテストにおける最終グローバルモデルの精度を保っている。
また、ACEを守るための6つの対策についても検討する。
本研究の結果から, FL における貢献評価手法の安全性を確保するため, 新たな防衛の必要性が浮き彫りになり, ACE の脅威を抑えるには不十分であることが示唆された。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Fair Federated Medical Image Segmentation via Client Contribution
Estimation [24.148002258279632]
フェデレーションラーニング(FL)におけるフェアネスの確保方法
近年の研究では、顧客への貢献と、顧客間のパフォーマンスの均一性を達成する方法に基づいて、顧客に報酬を与える方法が研究されている。
両種類の公平性を同時に最適化する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:21:54Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - A Novel Attribute Reconstruction Attack in Federated Learning [7.426857207652392]
フェデレーテッド・ラーニング(FL)は、多数の参加者がプライベートトレーニングデータを公開することなく、共同MLモデルを構築することが可能な、有望な学習パラダイムとして登場した。
既存のFL設計では、システム内外の敵がデータプライバシーを侵害するために悪用できる脆弱性が示されている。
トレーニングデータ属性を再構築するためのcos-matchingと呼ばれる,より効率的で効率的な勾配マッチング手法を開発した。
論文 参考訳(メタデータ) (2021-08-16T05:57:01Z) - Private Cross-Silo Federated Learning for Extracting Vaccine Adverse
Event Mentions [0.7349727826230862]
Federated Learning(FL)は、ユーザーが物理的にデータを共有せずにグローバルモデルを共同トレーニングするためのゴト分散トレーニングパラダイムです。
FLベースのトレーニングで得られたさまざまな利点の次元の包括的な実証的分析を紹介します。
ローカルDPは,グローバルモデルの予測精度を著しく損なう可能性を示し,ユーザによるフェデレーションへの参加を阻害する。
論文 参考訳(メタデータ) (2021-03-12T19:20:33Z) - Efficient Client Contribution Evaluation for Horizontal Federated
Learning [20.70853611040455]
この論文は、クライアントサーバがローカルデータ上のパラメータ勾配を計算し、グラデーションを中央サーバにアップロードする水平FLフレームワークに焦点を当てている。
提案手法は,評価精度および時間的複雑さの観点から,従来手法よりも一貫して優れる。
論文 参考訳(メタデータ) (2021-02-26T06:01:42Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。