論文の概要: FLTrust: Byzantine-robust Federated Learning via Trust Bootstrapping
- arxiv url: http://arxiv.org/abs/2012.13995v1
- Date: Sun, 27 Dec 2020 18:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-24 20:10:14.261462
- Title: FLTrust: Byzantine-robust Federated Learning via Trust Bootstrapping
- Title(参考訳): fltrust: 信頼ブートストラップによるビザンチンロバスト連合学習
- Authors: Xiaoyu Cao, Minghong Fang, Jia Liu, Neil Zhenqiang Gong
- Abstract要約: Byzantine-robustフェデレーションラーニングは、多数のクライアントが悪意のある場合、サービスプロバイダが正確なグローバルモデルを学ぶことを可能にすることを目的としています。
FLTrustは、サービスプロバイダ自身が信頼をブートストラップする新しいフェデレーション学習方法である。
異なるドメインからの6つのデータセットに対する評価は、FLTrustが既存の攻撃と強力な適応攻撃の両方に対して安全であることを示している。
- 参考スコア(独自算出の注目度): 23.634560816534297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Byzantine-robust federated learning aims to enable a service provider to
learn an accurate global model when a bounded number of clients are malicious.
The key idea of existing Byzantine-robust federated learning methods is that
the service provider performs statistical analysis among the clients' local
model updates and removes suspicious ones, before aggregating them to update
the global model. However, malicious clients can still corrupt the global
models in these methods via sending carefully crafted local model updates to
the service provider. The fundamental reason is that there is no root of trust
in existing federated learning methods.
In this work, we bridge the gap via proposing FLTrust, a new federated
learning method in which the service provider itself bootstraps trust. In
particular, the service provider itself collects a clean small training dataset
(called root dataset) for the learning task and the service provider maintains
a model (called server model) based on it to bootstrap trust. In each
iteration, the service provider first assigns a trust score to each local model
update from the clients, where a local model update has a lower trust score if
its direction deviates more from the direction of the server model update.
Then, the service provider normalizes the magnitudes of the local model updates
such that they lie in the same hyper-sphere as the server model update in the
vector space. Our normalization limits the impact of malicious local model
updates with large magnitudes. Finally, the service provider computes the
average of the normalized local model updates weighted by their trust scores as
a global model update, which is used to update the global model. Our extensive
evaluations on six datasets from different domains show that our FLTrust is
secure against both existing attacks and strong adaptive attacks.
- Abstract(参考訳): Byzantine-Robustのフェデレーション学習は、サービスプロバイダが、バウンド数のクライアントが悪意のある場合に、正確なグローバルモデルを学習できるようにすることを目的としている。
既存のByzantine-robustフェデレーション学習手法のキーとなる考え方は、クライアントのローカルモデル更新の統計分析を行い、疑わしいものを取り除き、グローバルモデル更新のために集約する、というものである。
しかし、悪意のあるクライアントは、サービスプロバイダに慎重に構築されたローカルモデル更新を送信することで、これらのメソッドのグローバルモデルを破壊することができる。
根本的な理由は、既存のフェデレーション学習手法に信頼の根がないことである。
本研究では,サービスプロバイダ自体が信頼をブートストラップする新たなフェデレーション学習手法であるFLTrustを提案し,そのギャップを埋める。
特に、サービスプロバイダは学習タスクのためにクリーンな小さなトレーニングデータセット(ルートデータセットと呼ばれる)を収集し、サービスプロバイダは信頼をブートストラップするためにそれに基づいてモデル(サーバモデルと呼ばれる)を保持します。
各イテレーションにおいて、サービス提供者は、まず、クライアントから各ローカルモデル更新に対して信頼スコアを割り当てる。
そして、サービスプロバイダは、ローカルモデルの更新の規模を正規化し、それらがベクトル空間におけるサーバモデルの更新と同じハイパースフィアに置かれるようにします。
私たちの正規化は、悪意のあるローカルモデル更新の影響を大きな規模で制限します。
最後に、サービスプロバイダは、信頼スコアによって重み付けられた正規化されたローカルモデル更新の平均をグローバルモデル更新として計算し、グローバルモデル更新に使用する。
異なるドメインからの6つのデータセットに対する広範な評価は、FLTrustが既存の攻撃と強力な適応攻撃の両方に対して安全であることを示している。
関連論文リスト
- FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information [67.8846134295194]
フェデレートラーニングは、悪意のあるクライアントが世界モデルに毒を盛る攻撃に対して脆弱である。
我々はFedRecoverを提案する。これは、クライアントに対して少量のコストで、毒殺攻撃から正確なグローバルモデルを取り戻すことができる。
論文 参考訳(メタデータ) (2022-10-20T00:12:34Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Byzantine-Resilient Secure Federated Learning [2.578242050187029]
本稿では,セキュアなフェデレーション学習のための単一サーバByzantine-Resilient secure aggregate framework(BREA)を提案する。
BREAは、Byzantine-Resilience Consistence Consistenceを同時に保証するために、統合的で検証可能な、安全なモデルアグリゲーションアプローチに基づいている。
実験では,ビザンチン系ユーザの存在下での収束を実証し,従来のフェデレート学習ベンチマークに匹敵する精度を示した。
論文 参考訳(メタデータ) (2020-07-21T22:15:11Z) - Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning [96.38757904624208]
モバイルネットワーク上の機械学習アルゴリズムは、3つのカテゴリに分類される。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論のフレームワークを提供することである。
論文 参考訳(メタデータ) (2020-05-05T21:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。