論文の概要: Blockchain-based Secure Client Selection in Federated Learning
- arxiv url: http://arxiv.org/abs/2205.05611v1
- Date: Wed, 11 May 2022 16:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 21:57:32.903330
- Title: Blockchain-based Secure Client Selection in Federated Learning
- Title(参考訳): フェデレーション学習におけるブロックチェーンベースのセキュアクライアント選択
- Authors: Truc Nguyen, Phuc Thai, Tre' R. Jeter, Thang N. Dinh, My T. Thai
- Abstract要約: ブロックチェーン技術を使って、フェデレートラーニングのための検証可能なクライアント選択プロトコルを提案しています。
本プロトコルでは,クライアントのランダムな選択を強制し,サーバが選択プロセスの判断で制御できないようにする。
この攻撃に対して当社のプロトコルが安全であることを示すセキュリティ証明を提示する。
- 参考スコア(独自算出の注目度): 18.001794899303626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the great potential of Federated Learning (FL) in large-scale
distributed learning, the current system is still subject to several privacy
issues due to the fact that local models trained by clients are exposed to the
central server. Consequently, secure aggregation protocols for FL have been
developed to conceal the local models from the server. However, we show that,
by manipulating the client selection process, the server can circumvent the
secure aggregation to learn the local models of a victim client, indicating
that secure aggregation alone is inadequate for privacy protection. To tackle
this issue, we leverage blockchain technology to propose a verifiable client
selection protocol. Owing to the immutability and transparency of blockchain,
our proposed protocol enforces a random selection of clients, making the server
unable to control the selection process at its discretion. We present security
proofs showing that our protocol is secure against this attack. Additionally,
we conduct several experiments on an Ethereum-like blockchain to demonstrate
the feasibility and practicality of our solution.
- Abstract(参考訳): 大規模分散学習における連合学習(federated learning, fl)の可能性は大きいが、現在のシステムは、クライアントがトレーニングしたローカルモデルが中央サーバに露出しているという事実から、いくつかのプライバシの問題にさらされている。
その結果,サーバからローカルモデルを隠蔽するために,FLのセキュアアグリゲーションプロトコルが開発された。
しかし,クライアント選択プロセスの操作により,サーバはセキュアなアグリゲーションを回避して被害者のローカルモデルを学ぶことができ,セキュアなアグリゲーションだけではプライバシ保護には不十分であることを示す。
この問題に取り組むため,我々はブロックチェーン技術を利用して検証可能なクライアント選択プロトコルを提案する。
ブロックチェーンの不変性と透明性のため、提案プロトコルはクライアントのランダムな選択を強制し、サーバがその判断で選択プロセスを制御できないようにする。
この攻撃に対して当社のプロトコルが安全であることを示すセキュリティ証明を提示する。
さらに、ethereumライクなブロックチェーンでいくつかの実験を行い、ソリューションの実現性と実用性を実証しました。
- 全文 参考訳へのリンク
関連論文リスト
- FedCL: Federated Contrastive Learning for Privacy-Preserving
Recommendation [98.5705258907774]
FedCLは、プライバシーを十分に保護した効果的なモデルトレーニングのために、高品質な負のサンプルを利用することができる。
まず、各クライアントのローカルモデルを介してローカルユーザデータからユーザ埋め込みを推測し、その後、ローカルディファレンシャルプライバシ(LDP)で摂動する。
個々のユーザ埋め込みにはLDPによる重騒音が伴うため,ノイズの影響を軽減するため,サーバ上にユーザ埋め込みをクラスタ化することを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:37:10Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Preserving Privacy and Security in Federated Learning [24.50496262648492]
我々は,セキュアなアグリゲーションと,ユーザからの毒殺攻撃に対する防御機構を組み合わせるためのフレームワークを開発する。
ゼロ知識証明プロトコルを利用して,防衛機構をローカルに実行し,その結果を中央サーバに示す。
我々のフレームワークは、セキュアなアグリゲーションのプライバシー保証に違反することなく、中央サーバが有毒なモデル更新を識別することを可能にする。
論文 参考訳(メタデータ) (2022-02-07T18:40:38Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Achieving Security and Privacy in Federated Learning Systems: Survey,
Research Challenges and Future Directions [6.460846767084875]
Federated Learning (FL) により、サーバは複数の分散クライアント間で機械学習(ML)モデルを学ぶことができる。
本稿では,まずflに対するセキュリティとプライバシのアタックを調査し,各アタックを緩和するために文献で提案するソリューションを批判的に調査する。
論文 参考訳(メタデータ) (2020-12-12T13:23:56Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。