論文の概要: FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information
- arxiv url: http://arxiv.org/abs/2210.10936v1
- Date: Thu, 20 Oct 2022 00:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 14:05:35.623424
- Title: FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information
- Title(参考訳): FedRecover: 歴史的情報を用いたフェデレーション学習における攻撃からの回復
- Authors: Xiaoyu Cao, Jinyuan Jia, Zaixi Zhang and Neil Zhenqiang Gong
- Abstract要約: フェデレートラーニングは、悪意のあるクライアントが世界モデルに毒を盛る攻撃に対して脆弱である。
我々はFedRecoverを提案する。これは、クライアントに対して少量のコストで、毒殺攻撃から正確なグローバルモデルを取り戻すことができる。
- 参考スコア(独自算出の注目度): 67.8846134295194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is vulnerable to poisoning attacks in which malicious
clients poison the global model via sending malicious model updates to the
server. Existing defenses focus on preventing a small number of malicious
clients from poisoning the global model via robust federated learning methods
and detecting malicious clients when there are a large number of them. However,
it is still an open challenge how to recover the global model from poisoning
attacks after the malicious clients are detected. A naive solution is to remove
the detected malicious clients and train a new global model from scratch, which
incurs large cost that may be intolerable for resource-constrained clients such
as smartphones and IoT devices.
In this work, we propose FedRecover, which can recover an accurate global
model from poisoning attacks with small cost for the clients. Our key idea is
that the server estimates the clients' model updates instead of asking the
clients to compute and communicate them during the recovery process. In
particular, the server stores the global models and clients' model updates in
each round, when training the poisoned global model. During the recovery
process, the server estimates a client's model update in each round using its
stored historical information. Moreover, we further optimize FedRecover to
recover a more accurate global model using warm-up, periodic correction,
abnormality fixing, and final tuning strategies, in which the server asks the
clients to compute and communicate their exact model updates. Theoretically, we
show that the global model recovered by FedRecover is close to or the same as
that recovered by train-from-scratch under some assumptions. Empirically, our
evaluation on four datasets, three federated learning methods, as well as
untargeted and targeted poisoning attacks (e.g., backdoor attacks) shows that
FedRecover is both accurate and efficient.
- Abstract(参考訳): フェデレーション学習は、悪意のあるクライアントがサーバに悪意のあるモデルアップデートを送信することによってグローバルモデルに毒を盛る中毒攻撃に対して脆弱である。
既存の防御策では、少数の悪意のあるクライアントが堅牢な連合学習方法を通じてグローバルモデルに毒を盛るのを防ぎ、多数の悪意のあるクライアントを検知することに焦点を当てている。
しかし、悪意のあるクライアントが検出された後、毒殺攻撃からグローバルモデルを回復する方法はまだ未解決の課題である。
検出された悪意のあるクライアントをスクラッチから取り除き、新たなグローバルモデルをトレーニングすることで、スマートフォンやiotデバイスといったリソースに制約のあるクライアントには許容できない大きなコストが発生する。
本研究はFedRecoverを提案する。これは顧客に対して低コストで毒殺攻撃から正確なグローバルモデルを復元できる。
私たちの重要なアイデアは、リカバリプロセス中にクライアントに計算と通信を求めるのではなく、サーバがクライアントのモデル更新を見積もるということです。
特に、サーバは、有毒なグローバルモデルをトレーニングする際に、グローバルモデルとクライアントのモデル更新を各ラウンドに格納する。
回復プロセスの間、サーバは保存された履歴情報を用いて各ラウンドでクライアントのモデル更新を推定する。
さらに,feedrecoverを最適化して,ウォームアップ,周期補正,異常修正,最終調整戦略を用いて,より正確なグローバルモデルを復元する。
理論的には、FedRecoverによって回収されたグローバルモデルは、いくつかの仮定の下で列車のスクラッチによって回収されたものに近いか、あるいは同じであることを示す。
実証的な評価では,4つのデータセット,3つのフェデレーション学習手法,および未標的および標的の毒殺攻撃(例:バックドア攻撃)は,FedRecoverが正確かつ効率的であることを示している。
関連論文リスト
- Towards Efficient and Certified Recovery from Poisoning Attacks in
Federated Learning [17.971060689461883]
フェデレートラーニング(FL)は、悪意のあるクライアントがアップデートを操作してグローバルモデルに影響を与える攻撃に対して脆弱である。
本稿では, (i) 選択履歴情報に基づいて, 高い有効回復が達成可能であることを示す。
選択情報ストレージと適応モデルロールバックに依存した,効率的かつ認証された回復手法であるCrabを紹介する。
論文 参考訳(メタデータ) (2024-01-16T09:02:34Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FLDetector: Defending Federated Learning Against Model Poisoning Attacks
via Detecting Malicious Clients [39.88152764752553]
フェデレート・ラーニング(Federated Learning, FL)は、モデル中毒攻撃に対して脆弱である。
悪意のあるクライアントは、操作されたモデルの更新をサーバに送信することで、グローバルモデルを破壊しました。
私たちのFLDetectorは、悪意のあるクライアントの大部分を検出し、削除することを目的としています。
論文 参考訳(メタデータ) (2022-07-19T11:44:24Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。