論文の概要: Byzantine Fault-Tolerant Distributed Machine Learning Using Stochastic
Gradient Descent (SGD) and Norm-Based Comparative Gradient Elimination (CGE)
- arxiv url: http://arxiv.org/abs/2008.04699v2
- Date: Sun, 18 Apr 2021 00:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:03:41.501516
- Title: Byzantine Fault-Tolerant Distributed Machine Learning Using Stochastic
Gradient Descent (SGD) and Norm-Based Comparative Gradient Elimination (CGE)
- Title(参考訳): SGD(Stochastic Gradient Descent)とNorm-Based Comparison Gradient Elimination(CGE)を用いたビザンチンフォールトトレラント分散機械学習
- Authors: Nirupam Gupta, Shuo Liu and Nitin H. Vaidya
- Abstract要約: 分散勾配降下法(D-SGD)におけるビザンチン耐故障性問題について考察する。
比較勾配除去(CGE)というノルムに基づく勾配フィルタを提案する。
CGE勾配フィルタは、標準仮定の下でのビザンチンエージェントの有界部分に対する耐故障性を保証する。
- 参考スコア(独自算出の注目度): 2.582633087903328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers the Byzantine fault-tolerance problem in distributed
stochastic gradient descent (D-SGD) method - a popular algorithm for
distributed multi-agent machine learning. In this problem, each agent samples
data points independently from a certain data-generating distribution. In the
fault-free case, the D-SGD method allows all the agents to learn a mathematical
model best fitting the data collectively sampled by all agents. We consider the
case when a fraction of agents may be Byzantine faulty. Such faulty agents may
not follow a prescribed algorithm correctly, and may render traditional D-SGD
method ineffective by sharing arbitrary incorrect stochastic gradients. We
propose a norm-based gradient-filter, named comparative gradient elimination
(CGE), that robustifies the D-SGD method against Byzantine agents. We show that
the CGE gradient-filter guarantees fault-tolerance against a bounded fraction
of Byzantine agents under standard stochastic assumptions, and is
computationally simpler compared to many existing gradient-filters such as
multi-KRUM, geometric median-of-means, and the spectral filters. We empirically
show, by simulating distributed learning on neural networks, that the
fault-tolerance of CGE is comparable to that of existing gradient-filters. We
also empirically show that exponential averaging of stochastic gradients
improves the fault-tolerance of a generic gradient-filter.
- Abstract(参考訳): 本稿では,分散確率勾配降下法(d-sgd法)におけるビザンチン断層耐障害問題について考察する。
この問題では、各エージェントは特定のデータ生成分布から独立してデータポイントをサンプリングする。
フォールトフリーの場合、D-SGD法は全てのエージェントが全てのエージェントが収集したデータに最も適した数学的モデルを学ぶことができる。
少数のエージェントがビザンチンの欠陥である可能性がある場合を考える。
このような異常エージェントは、所定のアルゴリズムを正しく従わない可能性があり、任意の不正確な確率勾配を共有することによって、従来のD-SGD法を無効にすることができる。
ビザンチン剤に対するD-SGD法を強固にするための標準勾配フィルタ, 比較勾配除去法(CGE)を提案する。
cge勾配フィルタは、標準確率的仮定の下でビザンチン剤の有界分画に対するフォールトトレランスを保証し、マルチクラム、幾何学的中央値、スペクトルフィルタといった既存の多くの勾配フィルタと比較して計算的に単純である。
ニューラルネットワーク上で分散学習をシミュレーションすることで,cgeのフォールトトレランスが既存の勾配フィルタに匹敵することを示した。
また,確率勾配の指数平均化により,一般勾配フィルタの耐障害性が向上することを示す。
関連論文リスト
- Flattened one-bit stochastic gradient descent: compressed distributed optimization with controlled variance [55.01966743652196]
パラメータ・サーバ・フレームワークにおける圧縮勾配通信を用いた分散勾配降下(SGD)のための新しいアルゴリズムを提案する。
平坦な1ビット勾配勾配勾配法(FO-SGD)は2つの単純なアルゴリズムの考え方に依存している。
論文 参考訳(メタデータ) (2024-05-17T21:17:27Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Robust Stochastic Optimization via Gradient Quantile Clipping [6.2844649973308835]
グラディエントDescent(SGD)のための量子クリッピング戦略を導入する。
通常のクリッピングチェーンとして、グラデーション・ニュー・アウトリージを使用します。
本稿では,Huberiles を用いたアルゴリズムの実装を提案する。
論文 参考訳(メタデータ) (2023-09-29T15:24:48Z) - Byzantine-Robust Decentralized Stochastic Optimization with Stochastic
Gradient Noise-Independent Learning Error [25.15075119957447]
分散ネットワーク上でのビザンチン-ロバスト最適化について検討し、各エージェントが近隣のエージェントと定期的に通信して局所モデルを交換し、勾配降下(SGD)により独自の局所モデルを更新する。
このような手法の性能は、最適化プロセス中に逆向きに実行される未知数のビザンチンエージェントに影響される。
論文 参考訳(メタデータ) (2023-08-10T02:14:23Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Stochastic Gradient Variance Reduction by Solving a Filtering Problem [0.951828574518325]
ディープニューラルネットワーク(DNN)は一般的に最適化された勾配降下(SGD)を用いる
試料を用いた勾配推定はノイズが多く信頼性が低い傾向にあり, 勾配のばらつきが大きく, 収束不良が生じる。
勾配を一貫した推定を行う効率的な最適化アルゴリズムである textbfFilter Gradient Decent (FGD) を提案する。
論文 参考訳(メタデータ) (2020-12-22T23:48:42Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z) - Byzantine-Resilient SGD in High Dimensions on Heterogeneous Data [10.965065178451104]
ビザンチン攻撃下での主作業者アーキテクチャにおける分散勾配降下(SGD)について検討した。
我々のアルゴリズムは、最大で$frac14$のビザンティン労働者を許容できる。
論文 参考訳(メタデータ) (2020-05-16T04:15:27Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。