論文の概要: SignSGD: Fault-Tolerance to Blind and Byzantine Adversaries
- arxiv url: http://arxiv.org/abs/2202.02085v2
- Date: Mon, 7 Feb 2022 16:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 12:02:18.402083
- Title: SignSGD: Fault-Tolerance to Blind and Byzantine Adversaries
- Title(参考訳): SignSGD: BlindとByzantineの敵に対するフォールトトレランス
- Authors: Jason Akoun, Sebastien Meyer
- Abstract要約: 我々はSGDから派生したより堅牢なSignSGDアルゴリズムに焦点を当てる。
我々は、学習プロセスを潰そうとするビザンティン戦略とともにSignSGDを実装した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed learning has become a necessity for training ever-growing models
by sharing calculation among several devices. However, some of the devices can
be faulty, deliberately or not, preventing the proper convergence. As a matter
of fact, the baseline distributed SGD algorithm does not converge in the
presence of one Byzantine adversary. In this article we focus on the more
robust SignSGD algorithm derived from SGD. We provide an upper bound for the
convergence rate of SignSGD proving that this new version is robust to
Byzantine adversaries. We implemented SignSGD along with Byzantine strategies
attempting to crush the learning process. Therefore, we provide empirical
observations from our experiments to support our theory. Our code is available
on GitHub https://github.com/jasonakoun/signsgd-fault-tolerance and our
experiments are reproducible by using the provided parameters.
- Abstract(参考訳): 分散学習は、複数のデバイス間で計算を共有することによって、成長を続けるモデルをトレーニングする上で必要となっている。
しかし、一部のデバイスは意図的に故障し、適切な収束を防止できる。
実のところ、ベースライン分散SGDアルゴリズムは、ビザンティンの1つの敵の存在下では収束しない。
本稿ではSGDから派生したより堅牢なSignSGDアルゴリズムに焦点を当てる。
我々は、新しいバージョンがビザンツの敵に対して堅牢であることを示すSignSGDの収束率の上限を与える。
我々は、ビザンティンの学習プロセスを潰そうとする戦略とともにSignSGDを実装した。
それゆえ,我々は実験から経験的な観察を行い,理論を裏付ける。
私たちのコードはgithub https://github.com/jasonakoun/signsgd-fault-toleranceで利用可能です。
関連論文リスト
- SignSGD with Federated Voting [69.06621279967865]
SignSGD with majority voting (signSGD-MV) は1ビット量子化により通信コストを大幅に削減できる効果的な分散学習アルゴリズムである。
我々は、テキストフェデレート投票(signSGD-FV)を用いた新しいサインSGDを提案する。
連合投票の考え方は、学習可能な重量を利用して多数決を行うことである。
提案手法は, エッジデバイスが不均一なミニバッチサイズを使用する場合でも, 理論的収束を保証する。
論文 参考訳(メタデータ) (2024-03-25T02:32:43Z) - Sinkhorn Distance Minimization for Knowledge Distillation [97.64216712016571]
知識蒸留(KD)は大規模言語モデル(LLM)の圧縮に広く採用されている。
本稿では,上述のKL,RKL,JSの発散が,それぞれモード緩和,モード崩壊,モード下推定といった問題に悩まされていることを示す。
本研究では,Sinkhorn 距離を利用した Sinkhorn Knowledge Distillation (SinKD) を提案する。
論文 参考訳(メタデータ) (2024-02-27T01:13:58Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Robust Distributed Learning Against Both Distributional Shifts and
Byzantine Attacks [29.34471516011148]
分散学習システムでは、2つのソースから問題が発生する可能性がある。
一方、トレーニングデータとテストデータ間の分散シフトにより、モデルはサンプル外性能が劣る可能性がある。
一方、訓練されたノードの一部はビザンチン攻撃を受け、モデルが無効になる可能性がある。
論文 参考訳(メタデータ) (2022-10-29T20:08:07Z) - From Gradient Flow on Population Loss to Learning with Stochastic
Gradient Descent [50.4531316289086]
SGD(Gradient Descent)は、大規模非ルートモデルの学習方法である。
集団損失のGFが収束すると仮定して、総合的な条件 SGD が収束する。
我々は、凸損失のような古典的な設定だけでなく、Retrieval Matrix sq-rootのようなより複雑な問題に対してもGD/SGDを統一的に解析する。
論文 参考訳(メタデータ) (2022-10-13T03:55:04Z) - Combining Differential Privacy and Byzantine Resilience in Distributed
SGD [9.14589517827682]
本稿では,分散SGDアルゴリズムが標準パラメータサーバアーキテクチャにおいて,どの程度正確なモデルを学習できるかについて検討する。
特に$(alpha,f)$-Byzantineのレジリエンスに依存しているものは、正直な労働者がDPを強制すると無効となる。
論文 参考訳(メタデータ) (2021-10-08T09:23:03Z) - Differential Privacy and Byzantine Resilience in SGD: Do They Add Up? [6.614755043607777]
本研究では,差分プライバシ(DP)と$(alpha,f)$-ビザンチンレジリエンスを併用して,SGD(Gradient Descent)学習アルゴリズムの分散実装が実現可能であるかを検討する。
これらの手法の直接的な構成は、結果のSGDアルゴリズムがMLモデルのパラメータ数に依存することを保証していることを示す。
論文 参考訳(メタデータ) (2021-02-16T14:10:38Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。