論文の概要: Enhancing Security and Privacy in Federated Learning using Update Digests and Voting-Based Defense
- arxiv url: http://arxiv.org/abs/2405.18802v1
- Date: Wed, 29 May 2024 06:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 18:28:55.421297
- Title: Enhancing Security and Privacy in Federated Learning using Update Digests and Voting-Based Defense
- Title(参考訳): 更新ダイジェストと投票に基づく防衛を用いたフェデレーション学習におけるセキュリティとプライバシの強化
- Authors: Wenjie Li, Kai Fan, Jingyuan Zhang, Hui Li, Wei Yang Bryan Lim, Qiang Yang,
- Abstract要約: フェデレートラーニング(FL)は、有望なプライバシー保護機械学習パラダイムである。
その可能性にもかかわらず、FLはクライアントとサーバの信頼性に関する課題に直面している。
underlinetextbfFederated underlinetextbfLearning with underlinetextbfUpdate underlinetextbfDigest (FLUD) という新しいフレームワークを導入する。
FLUDは、分散学習環境におけるビザンチン攻撃に対するプライバシー保護と抵抗の重要な問題に対処する。
- 参考スコア(独自算出の注目度): 23.280147155814955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a promising privacy-preserving machine learning paradigm that allows data owners to collaboratively train models while keeping their data localized. Despite its potential, FL faces challenges related to the trustworthiness of both clients and servers, especially in the presence of curious or malicious adversaries. In this paper, we introduce a novel framework named \underline{\textbf{F}}ederated \underline{\textbf{L}}earning with \underline{\textbf{U}}pdate \underline{\textbf{D}}igest (FLUD), which addresses the critical issues of privacy preservation and resistance to Byzantine attacks within distributed learning environments. FLUD utilizes an innovative approach, the $\mathsf{LinfSample}$ method, allowing clients to compute the $l_{\infty}$ norm across sliding windows of updates as an update digest. This digest enables the server to calculate a shared distance matrix, significantly reducing the overhead associated with Secure Multi-Party Computation (SMPC) by three orders of magnitude while effectively distinguishing between benign and malicious updates. Additionally, FLUD integrates a privacy-preserving, voting-based defense mechanism that employs optimized SMPC protocols to minimize communication rounds. Our comprehensive experiments demonstrate FLUD's effectiveness in countering Byzantine adversaries while incurring low communication and runtime overhead. FLUD offers a scalable framework for secure and reliable FL in distributed environments, facilitating its application in scenarios requiring robust data management and security.
- Abstract(参考訳): Federated Learning(FL)は、データ所有者がデータのローカライズを維持しながら、モデルの共同トレーニングを可能にする、有望なプライバシ保護機械学習パラダイムである。
その可能性にもかかわらず、FLはクライアントとサーバの両方の信頼性に関する課題に直面している。
本稿では,分散学習環境におけるビザンチン攻撃に対するプライバシー保護と耐性の重要な問題に対処する,新しいフレームワークである \underline{\textbf{F}}ederated \underline{\textbf{L}}earning with \underline{\textbf{U}}pdate \underline{\textbf{D}}igest (FLUD)を紹介する。
FLUDは、$\mathsf{LinfSample}$メソッドという革新的なアプローチを採用している。
このダイジェストにより、サーバは共有距離行列を計算し、セキュアなマルチパーティ計算(SMPC)に関連するオーバーヘッドを3桁に減らし、良質な更新と悪質な更新を効果的に区別することができる。
さらにFLUDは、通信ラウンドを最小化するために最適化されたSMPCプロトコルを使用するプライバシー保護、投票ベースの防衛メカニズムを統合している。
包括的実験では、通信の低さと実行時のオーバーヘッドを伴いながら、ビザンチンの敵に対するFLUDの有効性を実証した。
FLUDは、分散環境におけるセキュアで信頼性の高いFLのためのスケーラブルなフレームワークを提供する。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - RFLPA: A Robust Federated Learning Framework against Poisoning Attacks with Secure Aggregation [2.2667044928324747]
フェデレートラーニング(FL)は、複数のデバイスがデータを共有せずに協調的にモデルをトレーニングすることを可能にする。
その利点にもかかわらず、FLはプライバシーの漏洩や中毒攻撃に弱い。
本稿では,SecAggプロトコルに基づくRFLPAに対する堅牢なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T03:31:10Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - WW-FL: Secure and Private Large-Scale Federated Learning [15.412475066687723]
Federated Learning(FL)は、クライアントデバイス上でトレーニングデータを保持することによって、データのプライバシを保証する、大規模分散機械学習の効率的なアプローチである。
最近の研究でFLの脆弱性が発見され、毒殺攻撃によってセキュリティとプライバシーの両方に影響を及ぼした。
データとグローバルモデルのプライバシを保証するために,セキュアなマルチパーティ計算と階層的なFLを組み合わせた,革新的なフレームワークであるWW-FLを提案する。
論文 参考訳(メタデータ) (2023-02-20T11:02:55Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Reduce Communication Costs and Preserve Privacy: Prompt Tuning Method in
Federated Learning [12.103676778867571]
フェデレートラーニング(FL)は、プライバシ保護の方法で分散データのグローバルモデルトレーニングを可能にした。
最近の即時チューニングは、新しい学習パラダイムとして優れたパフォーマンスを実現している。
FedPrompt" はFLを用いたモデル分割学習方式のプロンプトチューニングの最初の研究である。
論文 参考訳(メタデータ) (2022-08-25T15:27:41Z) - FedPerm: Private and Robust Federated Learning by Parameter Permutation [2.406359246841227]
Federated Learning(FL)は、相互に信頼できないクライアントが共通の機械学習モデルを共同でトレーニングできるようにする分散学習パラダイムである。
クライアントデータのプライバシはFLで最重要である。同時に、モデルが敵のクライアントからの攻撃から保護されなければならない。
我々は、データプライバシを増幅する新しいモデル内パラメータシャッフル技術と、クライアントのモデル更新の暗号化集約を可能にするPrivate Information Retrieval(PIR)ベースの技術を組み合わせることで、これらの問題に対処する新しいFLアルゴリズムであるFedPermを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:40:28Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。