論文の概要: Dynamic Regret of Adaptive Gradient Methods for Strongly Convex Problems
- arxiv url: http://arxiv.org/abs/2209.01608v1
- Date: Sun, 4 Sep 2022 12:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:26:23.335739
- Title: Dynamic Regret of Adaptive Gradient Methods for Strongly Convex Problems
- Title(参考訳): 強凸問題に対する適応勾配法の動的回帰
- Authors: Parvin Nazari, Esmaile Khorram
- Abstract要約: 我々は、動的後悔の概念を通じて、強い凸条件でADAGRAD(M-ADAGRAD)の変種を通り抜ける。
我々は、環境の非定常性を本質的に反映する最小化シーケンスのパス長という観点で、後悔すべき境界を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adaptive gradient algorithms such as ADAGRAD and its variants have gained
popularity in the training of deep neural networks. While many works as for
adaptive methods have focused on the static regret as a performance metric to
achieve a good regret guarantee, the dynamic regret analyses of these methods
remain unclear. As opposed to the static regret, dynamic regret is considered
to be a stronger concept of performance measurement in the sense that it
explicitly elucidates the non-stationarity of the environment. In this paper,
we go through a variant of ADAGRAD (referred to as M-ADAGRAD ) in a strong
convex setting via the notion of dynamic regret, which measures the performance
of an online learner against a reference (optimal) solution that may change
over time. We demonstrate a regret bound in terms of the path-length of the
minimizer sequence that essentially reflects the non-stationarity of
environments. In addition, we enhance the dynamic regret bound by exploiting
the multiple accesses of the gradient to the learner in each round. Empirical
results indicate that M-ADAGRAD works also well in practice.
- Abstract(参考訳): ADAGRADなどの適応勾配アルゴリズムとその変種は、ディープニューラルネットワークのトレーニングで人気を博している。
適応的手法に関する多くの研究は、良い後悔の保証を達成するためにパフォーマンス指標としての静的な後悔に焦点を当ててきたが、これらの手法の動的な後悔の分析はいまだに不明である。
静的な後悔とは対照的に、動的後悔は環境の非定常性を明確に解明するという意味で、パフォーマンス測定の強い概念であると考えられている。
本稿では,時間とともに変化する参照(最適)ソリューションに対して,オンライン学習者のパフォーマンスを計測する動的後悔の概念を通じて,強力な凸条件下でADAGRADの変種(M-ADAGRAD)を経る。
我々は,環境の非定常性を本質的に反映する最小化系列の経路長という観点から,後悔の束縛を示す。
さらに、各ラウンドにおける学習者への勾配の多重アクセスを利用して、動的後悔の制限を強化する。
実験の結果,M-ADAGRADは実際にも有効であることが示唆された。
関連論文リスト
- Contextual Continuum Bandits: Static Versus Dynamic Regret [70.71582850199871]
本研究では,学習者が側情報ベクトルを逐次受信し,凸集合内の行動を選択する,文脈連続帯域幅問題について検討する。
線形な静的な後悔を実現するアルゴリズムは,任意のアルゴリズムを拡張して,線形な動的後悔を実現することができることを示す。
インテリアポイント法にインスパイアされ,自己協和障壁を用いるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-09T10:12:08Z) - Expected Grad-CAM: Towards gradient faithfulness [7.2203673761998495]
勾配重み付きCAMアプローチは依然としてバニラ勾配に依存している。
本研究は飽和度と感度問題に対処する勾配重み付きCAM増強法を提案する。
論文 参考訳(メタデータ) (2024-06-03T12:40:30Z) - Dynamic Regret of Online Markov Decision Processes [84.20723936192945]
オンラインマルコフ決定過程 (MDP) について, 損失関数や既知の遷移を逆向きに変化させることで検討する。
我々は,学習者と実行可能な変更ポリシーのシーケンス間のパフォーマンス差として定義されるパフォーマンス指標として,動的後悔を選択する。
オンラインMDPの基本モデルとして, エピソードループフリーショート・パス(SSP), エピソードSSP, 無限水平MPPの3つを考察する。
論文 参考訳(メタデータ) (2022-08-26T07:42:53Z) - Adam revisited: a weighted past gradients perspective [57.54752290924522]
本稿では,非収束問題に取り組むための適応法重み付け適応アルゴリズム(wada)を提案する。
私たちは、WADAが重み付きデータ依存の後悔境界を達成できることを証明します。
論文 参考訳(メタデータ) (2021-01-01T14:01:52Z) - Adaptive Gradient Method with Resilience and Momentum [120.83046824742455]
レジリエンスとモメンタム(AdaRem)を用いた適応勾配法を提案する。
AdaRemは、過去の1つのパラメータの変化方向が現在の勾配の方向と一致しているかどうかに応じてパラメータワイズ学習率を調整する。
本手法は,学習速度とテスト誤差の観点から,従来の適応学習率に基づくアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-10-21T14:49:00Z) - Dynamic Regret of Policy Optimization in Non-stationary Environments [120.01408308460095]
我々は,POWERとPOWER++の2つのモデルフリーポリシー最適化アルゴリズムを提案し,その動的後悔の保証を確立する。
我々はPOWER++が動的後悔の第2の構成要素であるPOWERよりも優れており、予測によって非定常性に積極的に適応していることを示す。
我々の知識を最大限に活用するために、我々の研究は、非定常環境におけるモデルフリーなRLアルゴリズムの、最初の動的後悔分析である。
論文 参考訳(メタデータ) (2020-06-30T23:34:37Z) - Temporal Variability in Implicit Online Learning [15.974402990630402]
最強の後悔分析は、オンラインミラー・ダイスンよりも限界的な改善しか示さない。
損失関数列の時間的変動に依存する新しい静的な後悔境界を証明した。
本稿では、時間的変動の事前知識を必要とせずに、この後悔を抑える適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:50:34Z) - Minimizing Dynamic Regret and Adaptive Regret Simultaneously [60.17824125301273]
動的後悔と適応的後悔を同時に最小化できる新しいオンラインアルゴリズムを提案する。
我々の理論的保証は、あるアルゴリズムが任意の間隔で動的後悔を最小化できるという意味でさらに強い。
論文 参考訳(メタデータ) (2020-02-06T03:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。