論文の概要: Better scalability under potentially heavy-tailed feedback
- arxiv url: http://arxiv.org/abs/2012.07346v1
- Date: Mon, 14 Dec 2020 08:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:41:00.204274
- Title: Better scalability under potentially heavy-tailed feedback
- Title(参考訳): 潜在的な重み付きフィードバックによるスケーラビリティ向上
- Authors: Matthew J. Holland
- Abstract要約: 損失や勾配の重み付けが可能である場合に使用できる,ロバスト勾配勾配降下法(RGD)のスケーラブルな代替手法について検討する。
我々は、並列に実行できる安価なサブプロセスの集合に基づいて、強力な候補を堅牢に選択することに集中する。
正確な選択プロセスは、基礎となる目的の凸性に依存するが、すべての場合において、我々の選択手法は弱い学習者の信頼を高める頑健な方法である。
- 参考スコア(独自算出の注目度): 6.903929927172917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study scalable alternatives to robust gradient descent (RGD) techniques
that can be used when the losses and/or gradients can be heavy-tailed, though
this will be unknown to the learner. The core technique is simple: instead of
trying to robustly aggregate gradients at each step, which is costly and leads
to sub-optimal dimension dependence in risk bounds, we instead focus
computational effort on robustly choosing (or newly constructing) a strong
candidate based on a collection of cheap stochastic sub-processes which can be
run in parallel. The exact selection process depends on the convexity of the
underlying objective, but in all cases, our selection technique amounts to a
robust form of boosting the confidence of weak learners. In addition to formal
guarantees, we also provide empirical analysis of robustness to perturbations
to experimental conditions, under both sub-Gaussian and heavy-tailed data,
along with applications to a variety of benchmark datasets. The overall
take-away is an extensible procedure that is simple to implement, trivial to
parallelize, which keeps the formal merits of RGD methods but scales much
better to large learning problems.
- Abstract(参考訳): 本研究では,損失や勾配の重み付けが可能である場合に使用可能な,ロバスト勾配降下法(RGD)のスケーラブルな代替手法について検討する。
基本技術は単純であり、各ステップでグラデーションをしっかりと集約しようとするのではなく、コストが高く、リスク境界の準最適次元依存性をもたらす代わりに、並列に実行できる安価な確率的サブプロセスの集合に基づいて、強い候補を堅牢に(あるいは新たに構築)することに焦点を当てる。
正確な選択プロセスは、基礎となる目的の凸性に依存するが、すべての場合において、我々の選択手法は弱い学習者の信頼を高める頑健な方法である。
フォーマルな保証に加えて、ガウス級および重尾級の両データの下で、実験条件に対する摂動に対するロバスト性の実証分析や、様々なベンチマークデータセットへの応用も提供する。
全体としては、実装が簡単で、並列化が簡単な拡張可能な手順で、rgdメソッドの形式的なメリットは保ちますが、大きな学習問題にはずっと適しています。
関連論文リスト
- Dealing with unbounded gradients in stochastic saddle-point optimization [9.983014605039658]
本研究では,凸凹関数のサドル点を求める一階法の性能について検討する。
悪名高い課題は、最適化中に勾配が任意に大きくなることだ。
本稿では,反復を安定化し,有意義な性能保証を与える,シンプルで効果的な正則化手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T16:13:49Z) - Policy Gradient for Rectangular Robust Markov Decision Processes [62.397882389472564]
我々は,長方形ロバストなマルコフ決定過程(MDP)を効率的に解く政策ベース手法であるロバストなポリシー勾配(RPG)を導入する。
結果のRPGは、非ロバストな等価値と同じ時間のデータから推定することができる。
論文 参考訳(メタデータ) (2023-01-31T12:40:50Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Near-Optimal High Probability Complexity Bounds for Non-Smooth
Stochastic Optimization with Heavy-Tailed Noise [63.304196997102494]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
既存の非滑らか凸最適化法は、負のパワーまたは対数的な信頼度に依存する境界の複雑さを持つ。
クリッピングを用いた2つの勾配法に対して, 新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - The Strength of Nesterov's Extrapolation in the Individual Convergence
of Nonsmooth Optimization [0.0]
ネステロフの外挿は、非滑らかな問題に対して勾配降下法の個人収束を最適にする強さを持つことを証明している。
提案手法は,設定の非滑らかな損失を伴って正規化学習タスクを解くためのアルゴリズムの拡張である。
本手法は,大規模な1-正規化ヒンジロス学習問題の解法として有効である。
論文 参考訳(メタデータ) (2020-06-08T03:35:41Z) - Improved scalability under heavy tails, without strong convexity [9.36599317326032]
本稿では,損失と勾配の両面が重く抑えられる場合に活用できる,単純なアルゴリズム戦略について検討する。
本研究は, 高損失下では, 簡易なクロスバリデーションにより, 提案手法を置き換えることができないことを示す。
当社には,透過的な保証を備えたスケーラブルなメソッドがあります。
論文 参考訳(メタデータ) (2020-06-02T03:12:17Z) - Better scalability under potentially heavy-tailed gradients [9.36599317326032]
本研究では, 勾配の重み付けに使用可能なロバスト勾配勾配降下法(RGD)のスケーラブルな代替法について検討する。
それぞれのステップでグラデーションをしっかりと集約する代わりに、分割されたデータに対して1回のパスで実行される安価なサブプロセスの大半からそれほど遠く離れない候補を選択します。
論文 参考訳(メタデータ) (2020-06-01T08:16:56Z) - A Graduated Filter Method for Large Scale Robust Estimation [32.08441889054456]
そこで我々は,ローカル・ミニマから逃れる強力な能力を有する,ロバストな推定のための新しい解法を提案する。
我々のアルゴリズムは、多くのローカルなミニマが不足している問題を解くために、最先端の手法に基づいて構築されている。
論文 参考訳(メタデータ) (2020-03-20T02:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。