論文の概要: The Vital Role of Gradient Clipping in Byzantine-Resilient Distributed Learning
- arxiv url: http://arxiv.org/abs/2405.14432v3
- Date: Fri, 04 Oct 2024 11:58:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-07 15:06:47.128755
- Title: The Vital Role of Gradient Clipping in Byzantine-Resilient Distributed Learning
- Title(参考訳): ビザンチン-レジリエント分散学習におけるグラディエント・クリッピングの役割
- Authors: Youssef Allouah, Rachid Guerraoui, Nirupam Gupta, Ahmed Jellouli, Geovani Rizk, John Stephan,
- Abstract要約: ビザンチン耐性の分散機械学習は、不正行為や敵対的労働者の存在下で、堅牢な学習性能を達成することを目指している。
最先端(SOTA)の頑健な分散勾配降下法(DGD)は理論的に最適であることが証明されているが、その実験的な成功は、しばしば前凝集勾配クリッピングに依存している。
本稿では,アダプティブロバストクリッピングARC(Adaptive Robust ClippingARC)と呼ばれる適応型クリッピング戦略を提案する。
- 参考スコア(独自算出の注目度): 8.268485501864939
- License:
- Abstract: Byzantine-resilient distributed machine learning seeks to achieve robust learning performance in the presence of misbehaving or adversarial workers. While state-of-the-art (SOTA) robust distributed gradient descent (Robust-DGD) methods were proven theoretically optimal, their empirical success has often relied on pre-aggregation gradient clipping. However, the currently considered static clipping strategy exhibits mixed results: improving robustness against some attacks while being ineffective or detrimental against others. We address this gap by proposing a principled adaptive clipping strategy, termed Adaptive Robust Clipping (ARC). We show that ARC consistently enhances the empirical robustness of SOTA Robust-DGD methods, while preserving the theoretical robustness guarantees. Our analysis shows that ARC provably improves the asymptotic convergence guarantee of Robust-DGD in the case when the model is well-initialized. We validate this theoretical insight through an exhaustive set of experiments on benchmark image classification tasks. We observe that the improvement induced by ARC is more pronounced in highly heterogeneous and adversarial settings.
- Abstract(参考訳): ビザンチン耐性の分散機械学習は、悪行や敵対的労働者の存在下で、堅牢な学習性能を達成することを目指している。
最先端(SOTA)の頑健な分散勾配降下法(Robust-DGD)は理論的に最適であることが証明されているが、その経験的成功は、しばしば事前集約勾配クリッピングに依存している。
しかし、現在検討されている静的クリッピング戦略は、いくつかの攻撃に対する堅牢性を改善しながら、他の攻撃に対して非効率または有害であるように、様々な結果を示している。
本稿では,適応ロバストクリッピング(ARC)と呼ばれる適応クリッピング戦略を提案することで,このギャップに対処する。
ARCは,SOTAロバスト-DGD法の実証的ロバスト性を維持しつつ,理論的ロバスト性を保証する。
解析の結果,モデルが十分に初期化されている場合,ARCはロバストDGDの漸近収束保証を良好に改善することが示された。
我々は、ベンチマーク画像分類タスクに関する一連の実験を通して、この理論的な洞察を検証した。
ARCにより誘導される改善は、高度に異質で対角的な環境においてより顕著である。
関連論文リスト
- Boosting Certificate Robustness for Time Series Classification with Efficient Self-Ensemble [10.63844868166531]
ランダム化 Smoothing は $ell_p$-ball 攻撃下でのロバストネス半径の証明可能な下界を証明できるため、スタンドアウト手法として登場した。
本稿では,分類マージンのばらつきを低減し,予測ラベルの確率信頼度を低くする自己アンサンブル手法を提案する。
このアプローチはまた、Deep Ensemble(DE)の計算オーバーヘッド問題にも対処し、競争力を維持しつつ、頑健性の観点からも性能を上回っている。
論文 参考訳(メタデータ) (2024-09-04T15:22:08Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Stratified Learning: A General-Purpose Statistical Method for Improved
Learning under Covariate Shift [1.1470070927586016]
本稿では,学習セットが代表的でない場合の教師あり学習を改善するための,シンプルで統計的に原理化された理論的に正当化された手法を提案する。
因果推論において確立された方法論を基礎として,共変量シフトの影響を条件付けによって低減・排除できることを示す。
本稿では,宇宙論における2つの現代の研究課題に対する汎用的手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-21T15:53:20Z) - CROP: Certifying Robust Policies for Reinforcement Learning through
Functional Smoothing [41.093241772796475]
本稿では, 逆境状態の摂動に対する強化学習(CROP)のためのロバスト政策の認定のための最初の枠組みを提案する。
本研究では,国家ごとの行動の堅牢性と累積報酬の低限界の2種類のロバスト性認定基準を提案する。
論文 参考訳(メタデータ) (2021-06-17T07:58:32Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。