論文の概要: Holdout SGD: Byzantine Tolerant Federated Learning
- arxiv url: http://arxiv.org/abs/2008.04612v1
- Date: Tue, 11 Aug 2020 10:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 12:29:55.430938
- Title: Holdout SGD: Byzantine Tolerant Federated Learning
- Title(参考訳): holdout sgd:ビザンチン耐性連合学習
- Authors: Shahar Azulay, Lior Raz, Amir Globerson, Tomer Koren, Yehuda Afek
- Abstract要約: 本研究は、グラディエントDescent(SGD)最適化のための、新しい分散ビザンチン耐性フェデレート学習アルゴリズムであるHoldOut SGDを提案する。
HoldOut SGDは、分散形式でホールドアウト推定というよく知られた機械学習技術を使用して、損失値の低いモデルにつながる可能性のあるパラメータ更新を選択する。
我々は、最適なモデルへの収束と、ビザンティン労働者のごく一部に対するレジリエンスのレベルの観点から、HoldOut SGDプロセスの正式な保証を提供する。
- 参考スコア(独自算出の注目度): 43.446891082719944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a new distributed Byzantine tolerant federated learning
algorithm, HoldOut SGD, for Stochastic Gradient Descent (SGD) optimization.
HoldOut SGD uses the well known machine learning technique of holdout
estimation, in a distributed fashion, in order to select parameter updates that
are likely to lead to models with low loss values. This makes it more effective
at discarding Byzantine workers inputs than existing methods that eliminate
outliers in the parameter-space of the learned model. HoldOut SGD first
randomly selects a set of workers that use their private data in order to
propose gradient updates. Next, a voting committee of workers is randomly
selected, and each voter uses its private data as holdout data, in order to
select the best proposals via a voting scheme. We propose two possible
mechanisms for the coordination of workers in the distributed computation of
HoldOut SGD. The first uses a truthful central server and corresponds to the
typical setting of current federated learning. The second is fully distributed
and requires no central server, paving the way to fully decentralized federated
learning. The fully distributed version implements HoldOut SGD via ideas from
the blockchain domain, and specifically the Algorand committee selection and
consensus processes. We provide formal guarantees for the HoldOut SGD process
in terms of its convergence to the optimal model, and its level of resilience
to the fraction of Byzantine workers. Empirical evaluation shows that HoldOut
SGD is Byzantine-resilient and efficiently converges to an effectual model for
deep-learning tasks, as long as the total number of participating workers is
large and the fraction of Byzantine workers is less than half (<1/3 for the
fully distributed variant).
- Abstract(参考訳): 本研究は,SGD(Stochastic Gradient Descent)最適化のための,新しい分散ビザンチン耐性フェデレート学習アルゴリズムであるHoldOut SGDを提案する。
HoldOut SGDは、分散形式でホールドアウト推定というよく知られた機械学習技術を使用して、損失値の低いモデルにつながる可能性のあるパラメータ更新を選択する。
これにより、学習したモデルのパラメータ空間の外れ値を排除する既存のメソッドよりも、Byzantineのワーカー入力を破棄する方が効果的になる。
HoldOut SGDはまず、勾配更新を提案するためにプライベートデータを使用する一連のワーカーをランダムに選択する。
次に、労働者の投票委員会をランダムに選択し、各投票者は、その個人データを保留データとして、投票方式による最善の提案を選択する。
我々は, holdout sgd の分散計算における作業者の協調のための2つの可能なメカニズムを提案する。
1つ目は真面目な中央サーバーを使用し、現在の連合学習の典型的な設定に対応する。
2つ目は完全な分散化であり、中央サーバを必要とせず、完全に分散した連合学習への道を開く。
完全に分散されたバージョンでは、ブロックチェーンドメインのアイデア、特にalgorand committee選択とコンセンサスプロセスを通じてholdout sgdを実装している。
我々は, 最適モデルへの収束, ビザンチン労働者の分数に対するレジリエンスレベルの観点から, holdout sgdプロセスに対する形式的保証を提供する。
実験的な評価から,HoldOut SGD はビザンチン耐性を持ち,参加者の総数が大きく,ビザンチン労働者の比率が半分未満(1/3)である限り,ディープラーニングタスクの効果モデルに効率的に収束することが示された。
関連論文リスト
- A Federated Distributionally Robust Support Vector Machine with Mixture of Wasserstein Balls Ambiguity Set for Distributed Fault Diagnosis [3.662364375995991]
本研究では、中央サーバとG$クライアントで構成されるネットワーク上で、データを共有せずに、分散ロバストな(DR)サポートベクタマシン(SVM)をフェデレーション方式でトレーニングする問題について検討する。
グローバルFDR-SVMをトレーニングするための2つの分散最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T19:21:45Z) - Optimally Solving Simultaneous-Move Dec-POMDPs: The Sequential Central Planning Approach [0.0]
分散実行パラダイムのためのエクシロントレーニングは、分散された部分的に観察可能な意思決定プロセスを最適に解決するための最先端のアプローチとして登場した。
本稿では、分散実行のためのシーケンシャルモブ集中型トレーニングという、新しい、よりスケーラブルな代替手段を提案する。
論文 参考訳(メタデータ) (2024-08-23T15:01:37Z) - SABLE: Secure And Byzantine robust LEarning [9.455980760111498]
ホモモルフィック暗号化(HE)は、分散学習におけるプライバシを保護するための主要なセキュリティ対策として登場した。
本稿では,最初の同型およびビザンチン頑健な分散学習アルゴリズムであるSABLEを紹介する。
論文 参考訳(メタデータ) (2023-09-11T11:54:42Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Combining Differential Privacy and Byzantine Resilience in Distributed
SGD [9.14589517827682]
本稿では,分散SGDアルゴリズムが標準パラメータサーバアーキテクチャにおいて,どの程度正確なモデルを学習できるかについて検討する。
特に$(alpha,f)$-Byzantineのレジリエンスに依存しているものは、正直な労働者がDPを強制すると無効となる。
論文 参考訳(メタデータ) (2021-10-08T09:23:03Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - A(DP)$^2$SGD: Asynchronous Decentralized Parallel Stochastic Gradient
Descent with Differential Privacy [15.038697541988746]
一般的な分散学習戦略はフェデレーション学習であり、グローバルモデルを格納する中央サーバと、対応するデータでモデルパラメータを更新するローカルコンピューティングノードのセットがある。
本稿では,ADPSGDの通信効率を保ち,悪意のある参加者による推論を防止する,非同期分散並列SGDフレームワークの差分プライベート版A(DP)$2$SGDを提案する。
論文 参考訳(メタデータ) (2020-08-21T00:56:22Z) - Byzantine-Robust Learning on Heterogeneous Datasets via Bucketing [55.012801269326594]
ビザンチンの堅牢な分散学習では、中央サーバは、複数のワーカーに分散したデータよりも、機械学習モデルを訓練したい。
これらの労働者のごく一部は、所定のアルゴリズムから逸脱し、任意のメッセージを送ることができる。
本稿では,既存のロバストなアルゴリズムを無視可能な計算コストでヘテロジニアスなデータセットに適応させる,シンプルなバケット方式を提案する。
論文 参考訳(メタデータ) (2020-06-16T17:58:53Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。