論文の概要: Implicit Interpretation of Importance Weight Aware Updates
- arxiv url: http://arxiv.org/abs/2307.11955v1
- Date: Sat, 22 Jul 2023 01:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 18:47:51.681900
- Title: Implicit Interpretation of Importance Weight Aware Updates
- Title(参考訳): 重要度認識更新のインシシト解釈
- Authors: Keyi Chen and Francesco Orabona
- Abstract要約: 次階降下は、凸機械学習アルゴリズムにおいて最もよく使われる最適化アルゴリズムの1つである。
IWAの更新は、通常のグラデーションの更新よりも、上限が厳密に良いことを初めて示します。
- 参考スコア(独自算出の注目度): 15.974402990630402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to its speed and simplicity, subgradient descent is one of the most used
optimization algorithms in convex machine learning algorithms. However, tuning
its learning rate is probably its most severe bottleneck to achieve consistent
good performance. A common way to reduce the dependency on the learning rate is
to use implicit/proximal updates. One such variant is the Importance Weight
Aware (IWA) updates, which consist of infinitely many infinitesimal updates on
each loss function. However, IWA updates' empirical success is not completely
explained by their theory. In this paper, we show for the first time that IWA
updates have a strictly better regret upper bound than plain gradient updates
in the online learning setting. Our analysis is based on the new framework,
generalized implicit Follow-the-Regularized-Leader (FTRL) (Chen and Orabona,
2023), to analyze generalized implicit updates using a dual formulation. In
particular, our results imply that IWA updates can be considered as approximate
implicit/proximal updates.
- Abstract(参考訳): そのスピードと単純さから、subgradient descendはconvex機械学習アルゴリズムで最もよく使われる最適化アルゴリズムの1つである。
しかし、学習率の調整は、一貫性のある優れたパフォーマンスを達成する上で、おそらく最も深刻なボトルネックである。
学習率への依存性を減らす一般的な方法は、暗黙的/近近的更新を使用することである。
そのようなバリエーションの1つはIWA(Importance Weight Aware)アップデートであり、各損失関数の無限小更新を無限に行う。
しかし、IWA更新の実証的な成功は、その理論によって完全には説明できない。
本稿では,IWA 更新がオンライン学習環境における通常の勾配更新よりも,過度に残念な点が多いことを初めて示す。
我々の分析は、一般化された暗黙的更新(FTRL)(Chen and Orabona, 2023)に基づいて、一般化された暗黙的更新を二重定式化を用いて解析する。
特に,IWA更新を暗黙的/近近的更新とみなすことができた。
関連論文リスト
- When, Why and How Much? Adaptive Learning Rate Scheduling by Refinement [51.12097770185634]
実際に使用される学習率のスケジュールは、理論によって推奨されるものとはほとんど似ていない。
我々はこの理論と実践的ギャップの多くを閉じ、その結果、新しい問題適応型学習率スケジュールを導き出すことができる。
論文 参考訳(メタデータ) (2023-10-11T19:16:35Z) - Multiplicative update rules for accelerating deep learning training and
increasing robustness [69.90473612073767]
我々は、幅広い機械学習アルゴリズムに適合し、代替の更新ルールを適用することができる最適化フレームワークを提案する。
提案するフレームワークはトレーニングを加速する一方、従来の追加更新ルールとは対照的に、より堅牢なモデルにつながります。
論文 参考訳(メタデータ) (2023-07-14T06:44:43Z) - Towards Constituting Mathematical Structures for Learning to Optimize [101.80359461134087]
近年,機械学習を利用してデータから最適化アルゴリズムを自動学習する技術が注目されている。
ジェネリックL2Oアプローチは反復更新ルールをパラメータ化し、ブラックボックスネットワークとして更新方向を学ぶ。
一般的なアプローチは広く適用できるが、学習されたモデルは過度に適合し、配布外テストセットにうまく一般化できない。
本稿では, 分布外問題に対して広く適用でき, 一般化された, 数学に着想を得た構造を持つ新しいL2Oモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T19:37:28Z) - Plug-and-Play Adaptation for Continuously-updated QA [21.665681980293137]
言語モデル(LM)は暗黙の知識ベース(KB)として大きな可能性を示している
実用上、LMの知識を定期的に更新する必要がある。
本稿では,LM に対して大規模更新を行う新しいタスクである連続更新 QA を提案する。
論文 参考訳(メタデータ) (2022-04-27T09:11:16Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - AutoDrop: Training Deep Learning Models with Automatic Learning Rate
Drop [16.396327849817464]
学習速度を$textitautomatically$に下げるアルゴリズムを開発した。
提案手法はSOTAトレーニングアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-30T11:55:21Z) - Correcting Momentum in Temporal Difference Learning [95.62766731469671]
時間差(TD)学習のモーメントは2倍に不安定になる勾配を蓄積すると主張している。
この現象が存在することを示し、その上で運動量に対する一階補正項を提案する。
この研究の重要な洞察は、深いRL法は、常に監督された設定から直接テクニックをインポートすることで最適ではないということである。
論文 参考訳(メタデータ) (2021-06-07T20:41:15Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z) - t-Soft Update of Target Network for Deep Reinforcement Learning [8.071506311915396]
本稿では,深部強化学習(DRL)のためのターゲットネットワークの頑健な更新ルールを提案する。
指数移動平均と正規分布の類似性からt-soft更新法を導出した。
DRLのPyBulletロボットシミュレーションでは、t-soft更新によるオンラインアクター批判アルゴリズムが、得られたリターンおよび/またはそのばらつきの点で従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-08-25T07:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。