論文の概要: Byzantine-Resilient Secure Federated Learning
- arxiv url: http://arxiv.org/abs/2007.11115v2
- Date: Sat, 20 Feb 2021 21:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:28:54.499489
- Title: Byzantine-Resilient Secure Federated Learning
- Title(参考訳): ビザンチン耐性セキュアフェデレート学習
- Authors: Jinhyun So, Basak Guler, A. Salman Avestimehr
- Abstract要約: 本稿では,セキュアなフェデレーション学習のための単一サーバByzantine-Resilient secure aggregate framework(BREA)を提案する。
BREAは、Byzantine-Resilience Consistence Consistenceを同時に保証するために、統合的で検証可能な、安全なモデルアグリゲーションアプローチに基づいている。
実験では,ビザンチン系ユーザの存在下での収束を実証し,従来のフェデレート学習ベンチマークに匹敵する精度を示した。
- 参考スコア(独自算出の注目度): 2.578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Secure federated learning is a privacy-preserving framework to improve
machine learning models by training over large volumes of data collected by
mobile users. This is achieved through an iterative process where, at each
iteration, users update a global model using their local datasets. Each user
then masks its local model via random keys, and the masked models are
aggregated at a central server to compute the global model for the next
iteration. As the local models are protected by random masks, the server cannot
observe their true values. This presents a major challenge for the resilience
of the model against adversarial (Byzantine) users, who can manipulate the
global model by modifying their local models or datasets. Towards addressing
this challenge, this paper presents the first single-server Byzantine-resilient
secure aggregation framework (BREA) for secure federated learning. BREA is
based on an integrated stochastic quantization, verifiable outlier detection,
and secure model aggregation approach to guarantee Byzantine-resilience,
privacy, and convergence simultaneously. We provide theoretical convergence and
privacy guarantees and characterize the fundamental trade-offs in terms of the
network size, user dropouts, and privacy protection. Our experiments
demonstrate convergence in the presence of Byzantine users, and comparable
accuracy to conventional federated learning benchmarks.
- Abstract(参考訳): secure federated learningは、モバイルユーザが収集した大量のデータをトレーニングすることで、マシンラーニングモデルを改善するための、プライバシ保護フレームワークである。
これは反復的なプロセスによって実現され、各イテレーションでユーザーはローカルデータセットを使用してグローバルモデルを更新する。
各ユーザはランダムキーを通じてローカルモデルをマスクし、マスキングされたモデルを中央サーバに集約して、次のイテレーションでグローバルモデルを計算します。
ローカルモデルがランダムなマスクで保護されているため、サーバは真の値を監視できない。
これは、ローカルモデルやデータセットを変更してグローバルモデルを操作できる敵(ビザンチン)ユーザに対する、モデルのレジリエンスに対する大きな課題を示している。
本稿では、この課題に取り組むために、セキュアな連合学習のための最初のシングルサーバbyzantine-resilient secure aggregation framework(brea)を提案する。
BREAは、Byzantine-Resilience、プライバシー、収束を同時に保証するための統合確率量子化、検証可能な外れ値検出、安全なモデル集約アプローチに基づいている。
ネットワークサイズ,ユーザドロップアウト,プライバシ保護の観点から,理論的収束とプライバシ保証を提供し,基本的なトレードオフを特徴付ける。
本実験は,ビザンチンユーザの存在下での収束を実証し,従来の連合学習ベンチマークと同等の精度を示す。
関連論文リスト
- Proximity-based Self-Federated Learning [1.0066310107046081]
本稿では,近接型自己フェデレーション学習という,新しい完全分散型フェデレーション学習戦略を提案する。
従来のアルゴリズムとは異なり、我々の手法は、地理的近接とモデル精度に基づいて、クライアントが近隣ノードとモデルを共有し、調整することを奨励する。
論文 参考訳(メタデータ) (2024-07-17T08:44:45Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - BRFL: A Blockchain-based Byzantine-Robust Federated Learning Model [8.19957400564017]
分散ノードにデータを格納し、モデルパラメータのみを共有するフェデレーション学習は、この問題に対処するために大きな注目を集めている。
悪質なローカルモデルが集約中のグローバルモデルのパフォーマンスを損なうという、ビザンティン攻撃問題(英語版)によるフェデレートラーニング(英語版)において、課題が生じる。
本稿では、フェデレートラーニングとブロックチェーン技術を組み合わせたByzantine-Robust Federated Learning(BRLF)モデルの統合を提案する。
論文 参考訳(メタデータ) (2023-10-20T10:21:50Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - FedBE: Making Bayesian Model Ensemble Applicable to Federated Learning [23.726336635748783]
フェデレートラーニング(Federated Learning)は、ユーザのローカルにトレーニングされたモデルにアクセスして、自身のデータではなく、強力なグローバルモデルを協調的にトレーニングすることを目的としている。
したがって、ローカルモデルをグローバルモデルに集約することが重要なステップであり、これはユーザーが非i.d.データを持つ場合に困難であることが示されている。
我々は,ハイクオリティなグローバルモデルをサンプリングすることによってベイズ推論の観点から,FedBEという新しい集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-04T01:18:25Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。