論文の概要: BRIEF but Powerful: Byzantine-Robust and Privacy-Preserving Federated
Learning via Model Segmentation and Secure clustering
- arxiv url: http://arxiv.org/abs/2208.10161v1
- Date: Mon, 22 Aug 2022 09:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 12:48:34.491579
- Title: BRIEF but Powerful: Byzantine-Robust and Privacy-Preserving Federated
Learning via Model Segmentation and Secure clustering
- Title(参考訳): BRIEFは強力: モデルセグメンテーションとセキュアクラスタリングによるビザンチン・ロバストとプライバシ保護フェデレーションラーニング
- Authors: Rui Wang, Xingkai Wang, Huanhuan Chen, Stjepan Picek, Zhen Liu and
Kaitai Liang
- Abstract要約: Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、正直で半正直な設定でのみ堅牢である。
本稿では,サーバ側とクライアント側で悪意あるマイノリティと多数を占めるBRIEF(Byzantine-robust and privacy-serving FL)システムを提案する。
- 参考スコア(独自算出の注目度): 28.649953216290438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Byzantine-robust Federated Learning (FL) aims to counter malicious clients
and to train an accurate global model while maintaining an extremely low attack
success rate. Most of the existing systems, however, are only robust in
honest/semi-honest majority settings. FLTrust (NDSS '21) extends the context to
the malicious majority for clients but with a strong restriction that the
server should be provided with an auxiliary dataset before training in order to
filter malicious inputs. Private FLAME/FLGUARD (USENIX '22) gives a solution to
guarantee both robustness and updates confidentiality in the semi-honest
majority context. It is so far impossible to balance the trade-off among
malicious context, robustness, and updates confidentiality. To tackle this
problem, we propose a novel Byzantine-robust and privacy-preserving FL system,
called BRIEF, to capture malicious minority and majority for server and client
sides. Specifically, based on the DBSCAN algorithm, we design a new method for
clustering via pairwise adjusted cosine similarity to boost the accuracy of the
clustering results. To thwart attacks of malicious majority, we develop an
algorithm called Model Segmentation, where local updates in the same cluster
are aggregated together, and the aggregations are sent back to corresponding
clients correctly. We also leverage multiple cryptographic tools to conduct
clustering tasks without sacrificing training correctness and updates
confidentiality. We present detailed security proof and empirical evaluation
along with convergence analysis for BRIEF. The experimental results demonstrate
that the testing accuracy of BRIEF is practically close to the FL baseline
(0.8% gap on average). At the same time, the attack success rate is around
0%-5%. We further optimize our design so that the communication overhead and
runtime can be decreased by {67%-89.17% and 66.05%-68.75%}, respectively.
- Abstract(参考訳): byzantine-robust federated learning(fl)は、悪意のあるクライアントに対抗し、攻撃成功率が非常に低いまま正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、正直で半正直な設定でのみ堅牢である。
FLTrust (NDSS '21)は、クライアントの悪意ある多数派にコンテキストを拡張しているが、悪意のある入力をフィルタリングするために、トレーニング前にサーバに補助的なデータセットを提供することを強く制限している。
Private FLAME/FLGUARD (USENIX '22) は、半正直な多数派コンテキストにおける堅牢性と機密性の更新の両方を保証するソリューションを提供する。
悪意のあるコンテキスト、堅牢性、機密性の更新のトレードオフのバランスをとることは、今のところ不可能です。
この問題に対処するため,サーバ側とクライアント側で悪意あるマイノリティと多数を占めるBRIEF(Byzantine-robust and privacy-serving FL)システムを提案する。
具体的には,DBSCANアルゴリズムに基づいて,クラスタリング結果の精度を高めるために,ペア調整されたコサイン類似性によるクラスタリングの新しい手法を設計する。
悪意のある多数派の攻撃を防ぐために,同一クラスタ内のローカル更新を集約し,アグリゲーションを対応するクライアントに正しく送信する,Model Segmentationというアルゴリズムを開発した。
また、複数の暗号化ツールを使用して、トレーニングの正確性と機密性を犠牲にすることなく、クラスタリングタスクを実行します。
本稿では,詳細なセキュリティ証明と経験的評価と収束解析について述べる。
実験の結果, BRIEFの試験精度はFLベースライン(平均0.8%)にほぼ近いことがわかった。
同時に、攻撃成功率は約0%-5%である。
さらに、通信オーバーヘッドとランタイムをそれぞれ67%-89.17%、66.05%-68.75%に削減できるように設計を最適化します。
関連論文リスト
- Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - FedCAP: Robust Federated Learning via Customized Aggregation and Personalization [13.17735010891312]
フェデレートラーニング(FL)は、様々なプライバシー保護シナリオに適用されている。
我々はデータ不均一性とビザンチン攻撃に対する堅牢なFLフレームワークであるFedCAPを提案する。
我々は,FedCAPがいくつかの非IID環境において良好に機能し,連続的な毒殺攻撃下で強い堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T23:01:22Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - BayBFed: Bayesian Backdoor Defense for Federated Learning [17.433543798151746]
フェデレートラーニング(FL)は、参加者がプライベートデータを他の人と共有することなく、機械学習モデルを共同でトレーニングすることを可能にする。
BayBFed は FL の悪意のある更新を検出するために,クライアント更新による確率分布の利用を提案する。
論文 参考訳(メタデータ) (2023-01-23T16:01:30Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - zPROBE: Zero Peek Robustness Checks for Federated Learning [18.84828158927185]
プライバシ保護フェデレーション学習は、複数のユーザが中央サーバの調整でモデルを共同でトレーニングすることを可能にする。
個々のアップデートを非公開にしておくことで、悪意のあるユーザはビザンチン攻撃を実行し、検出されることなく精度を低下させることができる。
当社のフレームワークであるzPROBEは、ビザンチンのレジリエンスとセキュアな連邦学習を可能にする。
論文 参考訳(メタデータ) (2022-06-24T06:20:37Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。