論文の概要: FLCert: Provably Secure Federated Learning against Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2210.00584v2
- Date: Tue, 4 Oct 2022 02:10:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 10:31:43.766752
- Title: FLCert: Provably Secure Federated Learning against Poisoning Attacks
- Title(参考訳): FLCert: テロ攻撃に対するフェデレーション学習はおそらく安全
- Authors: Xiaoyu Cao, Zaixi Zhang, Jinyuan Jia, Neil Zhenqiang Gong
- Abstract要約: FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
- 参考スコア(独自算出の注目度): 67.8846134295194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to its distributed nature, federated learning is vulnerable to poisoning
attacks, in which malicious clients poison the training process via
manipulating their local training data and/or local model updates sent to the
cloud server, such that the poisoned global model misclassifies many
indiscriminate test inputs or attacker-chosen ones. Existing defenses mainly
leverage Byzantine-robust federated learning methods or detect malicious
clients. However, these defenses do not have provable security guarantees
against poisoning attacks and may be vulnerable to more advanced attacks. In
this work, we aim to bridge the gap by proposing FLCert, an ensemble federated
learning framework, that is provably secure against poisoning attacks with a
bounded number of malicious clients. Our key idea is to divide the clients into
groups, learn a global model for each group of clients using any existing
federated learning method, and take a majority vote among the global models to
classify a test input. Specifically, we consider two methods to group the
clients and propose two variants of FLCert correspondingly, i.e., FLCert-P that
randomly samples clients in each group, and FLCert-D that divides clients to
disjoint groups deterministically. Our extensive experiments on multiple
datasets show that the label predicted by our FLCert for a test input is
provably unaffected by a bounded number of malicious clients, no matter what
poisoning attacks they use.
- Abstract(参考訳): その分散した性質から、フェデレートされた学習は、悪質なクライアントがローカルなトレーニングデータや/またはローカルなモデルのアップデートをクラウドサーバーに送信することでトレーニングプロセスに悪影響を及ぼすような、有毒な攻撃に対して脆弱である。
既存の防御策は、主にビザンチン・ロバスト連合学習法を利用するか、悪意のあるクライアントを検出する。
しかし、これらの防御は有毒な攻撃に対して保証可能なセキュリティ保証を持たず、より高度な攻撃に対して脆弱である可能性がある。
本研究は,悪意のあるクライアントの限定された有毒な攻撃に対して確実に安全である,連帯学習フレームワークであるflcertを提案することで,このギャップを埋めることを目的とする。
我々のキーとなるアイデアは、クライアントをグループに分割し、既存のフェデレーション学習手法を用いて各クライアントのグローバルモデルを学び、テスト入力を分類するために、グローバルモデルに多数票を投じることです。
具体的には、クライアントをグループ化し、各グループのクライアントをランダムにサンプリングするFLCert-Pと、クライアントを分離したグループに分割するFLCert-Dの2つの変種を提案する。
複数のデータセットに関する広範な実験により、FLCertがテスト入力に対して予測したラベルは、どんな悪質な攻撃であっても、有界なクライアントによって影響を受けていないことが判明した。
関連論文リスト
- FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - pFedDef: Defending Grey-Box Attacks for Personalized Federated Learning [14.799941756634976]
敵のクライアントは 他のクライアントを騙すために テスト時に脱出攻撃を仕掛ける
敵対的クライアントは、分散学習法に基づくパーソナライゼーションの度合いが異なる。
我々は,資源制限を尊重しながら個人化された対人訓練を行う防衛機構,pFedDefを導入する。
論文 参考訳(メタデータ) (2022-09-17T21:46:38Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - Robust Federated Learning via Over-The-Air Computation [48.47690125123958]
オーバー・ザ・エア計算によるモデル更新の簡易な平均化により、学習タスクは悪意のあるクライアントのローカルモデル更新のランダムまたは意図した変更に対して脆弱になる。
本稿では,このような攻撃に対して,フェデレート学習のためのオーバー・ザ・エア計算の利点を保ちながら,ロバストな伝達と集約の枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T19:21:21Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Provably Secure Federated Learning against Malicious Clients [31.85264586217373]
悪意のあるクライアントは、グローバルモデルを破損させて、テスト例の誤ったラベルを予測することができます。
我々のアンサンブル・フェデレーション・ラーニングとベース・フェデレーション・ラーニング・アルゴリズムは、悪意のあるクライアントに対して確実に安全であることを示す。
本手法は,1000件中20件のクライアントが悪意のある場合,MNISTに対して88%の認証精度を達成できる。
論文 参考訳(メタデータ) (2021-02-03T03:24:17Z) - Dynamic Defense Against Byzantine Poisoning Attacks in Federated
Learning [11.117880929232575]
フェデレート・ラーニングはビザチンによる敵対的な攻撃に弱い。
本稿では,これらのクライアントを動的に破棄する動的集約演算子を提案する。
その結果,集約するクライアントの動的選択により,グローバル学習モデルの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-29T18:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。