論文の概要: FLCert: Provably Secure Federated Learning against Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2210.00584v1
- Date: Sun, 2 Oct 2022 17:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 14:34:59.575262
- Title: FLCert: Provably Secure Federated Learning against Poisoning Attacks
- Title(参考訳): FLCert: テロ攻撃に対するフェデレーション学習はおそらく安全
- Authors: Xiaoyu Cao, Zaixi Zhang, Jinyuan Jia, Neil Zhenqiang Gong
- Abstract要約: FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
- 参考スコア(独自算出の注目度): 67.8846134295194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to its distributed nature, federated learning is vulnerable to poisoning
attacks, in which malicious clients poison the training process via
manipulating their local training data and/or local model updates sent to the
cloud server, such that the poisoned global model misclassifies many
indiscriminate test inputs or attacker-chosen ones. Existing defenses mainly
leverage Byzantine-robust federated learning methods or detect malicious
clients. However, these defenses do not have provable security guarantees
against poisoning attacks and may be vulnerable to more advanced attacks. In
this work, we aim to bridge the gap by proposing FLCert, an ensemble federated
learning framework, that is provably secure against poisoning attacks with a
bounded number of malicious clients. Our key idea is to divide the clients into
groups, learn a global model for each group of clients using any existing
federated learning method, and take a majority vote among the global models to
classify a test input. Specifically, we consider two methods to group the
clients and propose two variants of FLCert correspondingly, i.e., FLCert-P that
randomly samples clients in each group, and FLCert-D that divides clients to
disjoint groups deterministically. Our extensive experiments on multiple
datasets show that the label predicted by our FLCert for a test input is
provably unaffected by a bounded number of malicious clients, no matter what
poisoning attacks they use.
- Abstract(参考訳): その分散した性質から、フェデレートされた学習は、悪質なクライアントがローカルなトレーニングデータや/またはローカルなモデルのアップデートをクラウドサーバーに送信することでトレーニングプロセスに悪影響を及ぼすような、有毒な攻撃に対して脆弱である。
既存の防御策は、主にビザンチン・ロバスト連合学習法を利用するか、悪意のあるクライアントを検出する。
しかし、これらの防御は有毒な攻撃に対して保証可能なセキュリティ保証を持たず、より高度な攻撃に対して脆弱である可能性がある。
本研究は,悪意のあるクライアントの限定された有毒な攻撃に対して確実に安全である,連帯学習フレームワークであるflcertを提案することで,このギャップを埋めることを目的とする。
我々のキーとなるアイデアは、クライアントをグループに分割し、既存のフェデレーション学習手法を用いて各クライアントのグローバルモデルを学び、テスト入力を分類するために、グローバルモデルに多数票を投じることです。
具体的には、クライアントをグループ化し、各グループのクライアントをランダムにサンプリングするFLCert-Pと、クライアントを分離したグループに分割するFLCert-Dの2つの変種を提案する。
複数のデータセットに関する広範な実験により、FLCertがテスト入力に対して予測したラベルは、どんな悪質な攻撃であっても、有界なクライアントによって影響を受けていないことが判明した。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Honest Score Client Selection Scheme: Preventing Federated Learning Label Flipping Attacks in Non-IID Scenarios [27.36889020561564]
フェデレートラーニング(FL)は、複数のアクターが生データを共有せずにジョイントモデルを構築することができる有望な技術である。
この分散した性質により、FLはモデル中毒攻撃やデータ中毒攻撃など、様々な中毒攻撃に対して脆弱である。
本稿では,最も代表的なデータ中毒攻撃である「ラベルフリップ攻撃」に注目し,既存のFL法を攻撃した場合の有効性をモニタリングする。
論文 参考訳(メタデータ) (2023-11-10T02:07:41Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Characterizing Internal Evasion Attacks in Federated Learning [12.873984200814533]
フェデレートされた学習は、クライアントが機械学習モデルを共同でトレーニングすることを可能にする。
クライアントのモデルは、トレーニングとテストフェーズにおける攻撃に対して脆弱である。
本稿では,「内部回避攻撃」を行う敵クライアントの問題に対処する。
論文 参考訳(メタデータ) (2022-09-17T21:46:38Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - Provably Secure Federated Learning against Malicious Clients [31.85264586217373]
悪意のあるクライアントは、グローバルモデルを破損させて、テスト例の誤ったラベルを予測することができます。
我々のアンサンブル・フェデレーション・ラーニングとベース・フェデレーション・ラーニング・アルゴリズムは、悪意のあるクライアントに対して確実に安全であることを示す。
本手法は,1000件中20件のクライアントが悪意のある場合,MNISTに対して88%の認証精度を達成できる。
論文 参考訳(メタデータ) (2021-02-03T03:24:17Z) - Dynamic Defense Against Byzantine Poisoning Attacks in Federated
Learning [11.117880929232575]
フェデレート・ラーニングはビザチンによる敵対的な攻撃に弱い。
本稿では,これらのクライアントを動的に破棄する動的集約演算子を提案する。
その結果,集約するクライアントの動的選択により,グローバル学習モデルの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-29T18:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。