論文の概要: MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering
- arxiv url: http://arxiv.org/abs/2208.10161v2
- Date: Tue, 14 Nov 2023 11:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 23:15:05.359592
- Title: MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering
- Title(参考訳): MUDGUARD:プライバシ保護型ビザンチン・ロバストクラスタリングを用いたフェデレーションラーニングにおける有害な多数処理
- Authors: Rui Wang, Xingkai Wang, Huanhuan Chen, J\'er\'emie Decouchant, Stjepan
Picek, Nikolaos Laoutaris and Kaitai Liang
- Abstract要約: Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
- 参考スコア(独自算出の注目度): 34.429892915267686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Byzantine-robust Federated Learning (FL) aims to counter malicious clients
and train an accurate global model while maintaining an extremely low attack
success rate. Most existing systems, however, are only robust when most of the
clients are honest. FLTrust (NDSS '21) and Zeno++ (ICML '20) do not make such
an honest majority assumption but can only be applied to scenarios where the
server is provided with an auxiliary dataset used to filter malicious updates.
FLAME (USENIX '22) and EIFFeL (CCS '22) maintain the semi-honest majority
assumption to guarantee robustness and the confidentiality of updates. It is
therefore currently impossible to ensure Byzantine robustness and
confidentiality of updates without assuming a semi-honest majority. To tackle
this problem, we propose a novel Byzantine-robust and privacy-preserving FL
system, called MUDGUARD, that can operate under malicious minority \emph{or
majority} in both the server and client sides. Based on DBSCAN, we design a new
method for extracting features from model updates via pairwise adjusted cosine
similarity to boost the accuracy of the resulting clustering. To thwart attacks
from a malicious majority, we develop a method called \textit{Model
Segmentation}, that aggregates together only the updates from within a cluster,
sending the corresponding model only to the clients of the corresponding
cluster. The fundamental idea is that even if malicious clients are in their
majority, their poisoned updates cannot harm benign clients if they are
confined only within the malicious cluster. We also leverage multiple
cryptographic tools to conduct clustering without sacrificing training
correctness and updates confidentiality. We present a detailed security proof
and empirical evaluation along with a convergence analysis for MUDGUARD.
- Abstract(参考訳): byzantine-robust federated learning(fl)は、悪意のあるクライアントに対抗し、攻撃成功率が非常に低いまま正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
FLTrust (NDSS '21) とZeno++ (ICML '20) は、そのような正直な大多数の仮定をしていないが、サーバに悪意のある更新をフィルタリングする補助的なデータセットを提供するシナリオにのみ適用することができる。
FLAME (USENIX '22) と EIFFeL (CCS '22) は、更新の堅牢性と機密性を保証するために、半正直な過半数の仮定を維持している。
したがって、現在、半正統な多数派を仮定することなく、ビザンチンの堅牢性と更新の機密性を保証することは不可能である。
この問題に対処するために,サーバ側とクライアント側の両方で悪意ある少数派である 'emph{or majority} の下で動作可能な,ビザンチン・ロバスト・プライバシ保護FLシステム MUDGUARD を提案する。
dbscanに基づいて,ペアワイズ調整コサイン類似性を用いてモデル更新から特徴を抽出する新しい手法を考案し,クラスタリングの精度を高める。
悪意のある多数派からの攻撃を防ぐために,クラスタ内の更新のみを集約して,対応するクラスタのクライアントにのみ対応するモデルを送信する,‘textit{Model Segmentation’という手法を開発した。
基本的な考え方は、悪意のあるクライアントが多数派であるとしても、悪意のある更新が悪意のあるクラスタ内に限定されている場合、良質なクライアントを傷つけることはない、というものだ。
また、複数の暗号化ツールを使用して、トレーニングの正確性と機密性を犠牲にすることなく、クラスタリングを実行します。
我々は,MUDGUARDの収束解析とともに,詳細なセキュリティ証明と実証評価を行う。
関連論文リスト
- Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - FedCAP: Robust Federated Learning via Customized Aggregation and Personalization [13.17735010891312]
フェデレートラーニング(FL)は、様々なプライバシー保護シナリオに適用されている。
我々はデータ不均一性とビザンチン攻撃に対する堅牢なFLフレームワークであるFedCAPを提案する。
我々は,FedCAPがいくつかの非IID環境において良好に機能し,連続的な毒殺攻撃下で強い堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T23:01:22Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - BayBFed: Bayesian Backdoor Defense for Federated Learning [17.433543798151746]
フェデレートラーニング(FL)は、参加者がプライベートデータを他の人と共有することなく、機械学習モデルを共同でトレーニングすることを可能にする。
BayBFed は FL の悪意のある更新を検出するために,クライアント更新による確率分布の利用を提案する。
論文 参考訳(メタデータ) (2023-01-23T16:01:30Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - zPROBE: Zero Peek Robustness Checks for Federated Learning [18.84828158927185]
プライバシ保護フェデレーション学習は、複数のユーザが中央サーバの調整でモデルを共同でトレーニングすることを可能にする。
個々のアップデートを非公開にしておくことで、悪意のあるユーザはビザンチン攻撃を実行し、検出されることなく精度を低下させることができる。
当社のフレームワークであるzPROBEは、ビザンチンのレジリエンスとセキュアな連邦学習を可能にする。
論文 参考訳(メタデータ) (2022-06-24T06:20:37Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。