論文の概要: Towards Bidirectional Protection in Federated Learning
- arxiv url: http://arxiv.org/abs/2010.01175v2
- Date: Sun, 30 May 2021 20:24:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:26:47.955470
- Title: Towards Bidirectional Protection in Federated Learning
- Title(参考訳): フェデレートラーニングにおける双方向保護に向けて
- Authors: Lun Wang, Qi Pang, Shuai Wang and Dawn Song
- Abstract要約: F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 70.36925233356335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior efforts in enhancing federated learning (FL) security fall into two
categories. At one end of the spectrum, some work uses secure aggregation
techniques to hide the individual client's updates and only reveal the
aggregated global update to a malicious server that strives to infer the
clients' privacy from their updates. At the other end of the spectrum, some
work uses Byzantine-robust FL protocols to suppress the influence of malicious
clients' updates. We present a federated learning protocol F2ED-LEARNING,
which, for the first time, offers bidirectional defense to simultaneously
combat against the malicious centralized server and Byzantine malicious
clients. To defend against Byzantine malicious clients, F2ED-LEARNING provides
dimension-free estimation error by employing and calibrating a well-studied
robust mean estimator FilterL2. F2ED-LEARNING also leverages secure aggregation
to protect clients from a malicious server. One key challenge of F2ED-LEARNING
is to address the incompatibility between FilterL2 and secure aggregation
schemes. Concretely, FilterL2 has to check the individual updates from clients
whereas secure aggregation hides those updates from the malicious server. To
this end, we propose a practical and highly effective solution to split the
clients into shards, where F2ED-LEARNING securely aggregates each shard's
update and launches FilterL2 on updates from different shards. The evaluation
shows that F2ED-LEARNING consistently achieves optimal or close-to-optimal
performance and outperforms five secure FL protocols under five popular
attacks.
- Abstract(参考訳): 連邦学習(FL)のセキュリティ強化への取り組みは、2つのカテゴリに分類される。
ある作業では、セキュアなアグリゲーション技術を使用して、個々のクライアントの更新を隠蔽し、その更新からクライアントのプライバシを推測しようとする悪意のあるサーバに集約されたグローバルアップデートだけを明らかにする。
一方、悪意のあるクライアントの更新の影響を抑制するために、Byzantine-robust FLプロトコルを使用する研究もある。
F2ED-LEARNINGは,悪意のある集中型サーバとビザンチンの悪意のあるクライアントとを同時に戦うために,双方向の防御を提供する。
ビザンチンの悪意のあるクライアントに対して防御するため、F2ED-LEARNingは、よく研究された堅牢な平均推定器FilterL2を使用して、次元のない推定誤差を提供する。
F2ED-LEARNINGはセキュアなアグリゲーションを利用してクライアントを悪意のあるサーバから保護する。
F2ED-LEARNINGの重要な課題は、FilterL2とセキュアアグリゲーションスキームの非互換性に対処することである。
具体的には、filterl2はクライアントからの個々の更新をチェックし、セキュアアグリゲーションは悪意のあるサーバからそれらの更新を隠蔽する。
そこでF2ED-LEARNINGは,各シャードの更新を安全に集約し,異なるシャードからの更新に対してFilterL2をローンチする。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能を一貫して達成し,5つの攻撃条件下では5つのセキュアFLプロトコルより優れていた。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Privacy-Preserving Aggregation for Decentralized Learning with Byzantine-Robustness [5.735144760031169]
Byzantineクライアントは、任意のモデル更新を他のクライアントにブロードキャストすることで、学習プロセスを意図的に破壊する。
本稿では,ビザンチンの脅威に対するDLのセキュリティとプライバシを高めるために設計された,新しいDLプロトコルであるSecureDLを紹介する。
実験の結果,悪意者による攻撃においてもSecureDLは有効であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T18:17:36Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。