論文の概要: Provably Secure Federated Learning against Malicious Clients
- arxiv url: http://arxiv.org/abs/2102.01854v2
- Date: Thu, 4 Feb 2021 03:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 11:39:57.427923
- Title: Provably Secure Federated Learning against Malicious Clients
- Title(参考訳): 悪意あるクライアントに対する安全なフェデレーションラーニング
- Authors: Xiaoyu Cao, Jinyuan Jia, Neil Zhenqiang Gong
- Abstract要約: 悪意のあるクライアントは、グローバルモデルを破損させて、テスト例の誤ったラベルを予測することができます。
我々のアンサンブル・フェデレーション・ラーニングとベース・フェデレーション・ラーニング・アルゴリズムは、悪意のあるクライアントに対して確実に安全であることを示す。
本手法は,1000件中20件のクライアントが悪意のある場合,MNISTに対して88%の認証精度を達成できる。
- 参考スコア(独自算出の注目度): 31.85264586217373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables clients to collaboratively learn a shared global
model without sharing their local training data with a cloud server. However,
malicious clients can corrupt the global model to predict incorrect labels for
testing examples. Existing defenses against malicious clients leverage
Byzantine-robust federated learning methods. However, these methods cannot
provably guarantee that the predicted label for a testing example is not
affected by malicious clients. We bridge this gap via ensemble federated
learning. In particular, given any base federated learning algorithm, we use
the algorithm to learn multiple global models, each of which is learnt using a
randomly selected subset of clients. When predicting the label of a testing
example, we take majority vote among the global models. We show that our
ensemble federated learning with any base federated learning algorithm is
provably secure against malicious clients. Specifically, the label predicted by
our ensemble global model for a testing example is provably not affected by a
bounded number of malicious clients. Moreover, we show that our derived bound
is tight. We evaluate our method on MNIST and Human Activity Recognition
datasets. For instance, our method can achieve a certified accuracy of 88% on
MNIST when 20 out of 1,000 clients are malicious.
- Abstract(参考訳): フェデレーションラーニングにより、クライアントはローカルトレーニングデータをクラウドサーバーと共有することなく、共有グローバルモデルを共同で学習できます。
しかし、悪意のあるクライアントはグローバルモデルを破損して、テスト例の誤ったラベルを予測できます。
悪意のあるクライアントに対する既存の防御は、Byzantine-robustフェデレーション学習方法を活用します。
しかし、これらの方法は、テスト例の予測ラベルが悪意のあるクライアントの影響を受けないことを保証できません。
このギャップをアンサンブル連合学習によって橋渡しします。
特に,任意のベースフェデレーション学習アルゴリズムを用いて,複数のグローバルモデルを学習し,それぞれがランダムに選択されたクライアントのサブセットを用いて学習する。
テスト例のラベルを予測する場合、私たちは、グローバルモデルに多数票を投じます。
我々は,任意のベースフェデレーション学習アルゴリズムを用いたアンサンブルフェデレーション学習が,悪意のあるクライアントに対して確実に安全であることを示す。
具体的には、テスト例のためのアンサンブルグローバルモデルによって予測されたラベルは、悪意のあるクライアントの限定された数に影響されない。
さらに、導出境界は密接であることが示される。
本手法をMNISTおよびヒューマンアクティビティ認識データセット上で評価する。
例えば、1000件のクライアントのうち20件が悪意がある場合、mnistの認証精度は88%である。
関連論文リスト
- Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Anomaly Detection via Federated Learning [3.0755847416657613]
本稿では,クライアントサーバ上で悪意あるネットワーク活動を検出するための,フェデレーション学習による新しい異常検出手法を提案する。
FedSamと呼ばれる新しいmin-maxスカラーとサンプリング技術を用いて、フェデレーション学習により、グローバルモデルが各クライアントのデータから学習できると判断した。
論文 参考訳(メタデータ) (2022-10-12T22:40:29Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - RSCFed: Random Sampling Consensus Federated Semi-supervised Learning [40.998176838813045]
Federated semi-supervised learning (FSSL)は、完全にラベル付けされた、完全にラベル付けされていないクライアントをトレーニングしたり、部分的にラベル付けされたクライアントをトレーニングすることで、グローバルなモデルを導出することを目的としている。
我々は,完全ラベルのクライアント,完全ラベルのクライアント,あるいは部分的にラベル付けされたクライアントのモデル間の不均一な信頼性を考慮して,ランダムサンプリング統合学習(RSCFed)を提案する。
論文 参考訳(メタデータ) (2022-03-26T05:10:44Z) - ABC-FL: Anomalous and Benign client Classification in Federated Learning [0.0]
Federated Learningは、データプライバシ保護用に設計された分散機械学習フレームワークである。
ディープラーニング技術で発生した脆弱性と感受性を継承する。
非独立性およびIdentically Distributed(非IID)データのため、悪意のあるクライアントを正しく識別することは困難である。
良性クライアントが非IIDデータを持つ場合,良性クライアントから異常クライアントを検出し,分類する手法を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:54:25Z) - Intrinsic Certified Robustness of Bagging against Data Poisoning Attacks [75.46678178805382]
emphdata中毒攻撃では、攻撃者は学習した機械学習モデルを破損させるためにいくつかのトレーニング例を変更し、削除し、または挿入する。
データ中毒攻撃に対するバッグングの本質的確固たる堅牢性を証明する。
本手法は, 任意の修正, 削除, 挿入を行う場合, MNIST 上で 911.1% の精度を達成している。
論文 参考訳(メタデータ) (2020-08-11T03:12:42Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。