論文の概要: Implicit Interpretation of Importance Weight Aware Updates
- arxiv url: http://arxiv.org/abs/2307.11955v1
- Date: Sat, 22 Jul 2023 01:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 18:47:51.681900
- Title: Implicit Interpretation of Importance Weight Aware Updates
- Title(参考訳): 重要度認識更新のインシシト解釈
- Authors: Keyi Chen and Francesco Orabona
- Abstract要約: 次階降下は、凸機械学習アルゴリズムにおいて最もよく使われる最適化アルゴリズムの1つである。
IWAの更新は、通常のグラデーションの更新よりも、上限が厳密に良いことを初めて示します。
- 参考スコア(独自算出の注目度): 15.974402990630402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to its speed and simplicity, subgradient descent is one of the most used
optimization algorithms in convex machine learning algorithms. However, tuning
its learning rate is probably its most severe bottleneck to achieve consistent
good performance. A common way to reduce the dependency on the learning rate is
to use implicit/proximal updates. One such variant is the Importance Weight
Aware (IWA) updates, which consist of infinitely many infinitesimal updates on
each loss function. However, IWA updates' empirical success is not completely
explained by their theory. In this paper, we show for the first time that IWA
updates have a strictly better regret upper bound than plain gradient updates
in the online learning setting. Our analysis is based on the new framework,
generalized implicit Follow-the-Regularized-Leader (FTRL) (Chen and Orabona,
2023), to analyze generalized implicit updates using a dual formulation. In
particular, our results imply that IWA updates can be considered as approximate
implicit/proximal updates.
- Abstract(参考訳): そのスピードと単純さから、subgradient descendはconvex機械学習アルゴリズムで最もよく使われる最適化アルゴリズムの1つである。
しかし、学習率の調整は、一貫性のある優れたパフォーマンスを達成する上で、おそらく最も深刻なボトルネックである。
学習率への依存性を減らす一般的な方法は、暗黙的/近近的更新を使用することである。
そのようなバリエーションの1つはIWA(Importance Weight Aware)アップデートであり、各損失関数の無限小更新を無限に行う。
しかし、IWA更新の実証的な成功は、その理論によって完全には説明できない。
本稿では,IWA 更新がオンライン学習環境における通常の勾配更新よりも,過度に残念な点が多いことを初めて示す。
我々の分析は、一般化された暗黙的更新(FTRL)(Chen and Orabona, 2023)に基づいて、一般化された暗黙的更新を二重定式化を用いて解析する。
特に,IWA更新を暗黙的/近近的更新とみなすことができた。
関連論文リスト
- Exact, Tractable Gauss-Newton Optimization in Deep Reversible Architectures Reveal Poor Generalization [52.16435732772263]
多くのアプリケーションにおいて、ディープニューラルネットワークのトレーニングを加速する2階最適化が示されている。
しかし、二階法の一般化特性についてはいまだ議論が続いている。
我々は、Gauss-Newton (GN) の正確な更新が、ディープアーキテクチャのクラスにおいて、牽引可能な形式を取ることを初めて示す。
論文 参考訳(メタデータ) (2024-11-12T17:58:40Z) - Knowledge Editing in Language Models via Adapted Direct Preference Optimization [50.616875565173274]
大きな言語モデル(LLM)は、時間とともに時代遅れになる可能性がある。
知識編集は、高価なリトレーニングを必要としないウェイトアップデートを使用して、この課題を克服することを目的としている。
論文 参考訳(メタデータ) (2024-06-14T11:02:21Z) - CLASSP: a Biologically-Inspired Approach to Continual Learning through Adjustment Suppression and Sparsity Promotion [0.0]
本稿では,適応抑制・分散促進(CLASSP)による継続学習という新しい学習手法を提案する。
CLASSPは神経科学、特にシナプス伝達と長期増強の文脈で観察される2つの主要な原理に基づいている。
Elastic Weight Consolidation (EWC)データセットと比較すると、CLASSPは精度とメモリフットプリントの点で優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-04-29T13:31:00Z) - Multiplicative update rules for accelerating deep learning training and
increasing robustness [69.90473612073767]
我々は、幅広い機械学習アルゴリズムに適合し、代替の更新ルールを適用することができる最適化フレームワークを提案する。
提案するフレームワークはトレーニングを加速する一方、従来の追加更新ルールとは対照的に、より堅牢なモデルにつながります。
論文 参考訳(メタデータ) (2023-07-14T06:44:43Z) - Towards Constituting Mathematical Structures for Learning to Optimize [101.80359461134087]
近年,機械学習を利用してデータから最適化アルゴリズムを自動学習する技術が注目されている。
ジェネリックL2Oアプローチは反復更新ルールをパラメータ化し、ブラックボックスネットワークとして更新方向を学ぶ。
一般的なアプローチは広く適用できるが、学習されたモデルは過度に適合し、配布外テストセットにうまく一般化できない。
本稿では, 分布外問題に対して広く適用でき, 一般化された, 数学に着想を得た構造を持つ新しいL2Oモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T19:37:28Z) - Plug-and-Play Adaptation for Continuously-updated QA [21.665681980293137]
言語モデル(LM)は暗黙の知識ベース(KB)として大きな可能性を示している
実用上、LMの知識を定期的に更新する必要がある。
本稿では,LM に対して大規模更新を行う新しいタスクである連続更新 QA を提案する。
論文 参考訳(メタデータ) (2022-04-27T09:11:16Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Correcting Momentum in Temporal Difference Learning [95.62766731469671]
時間差(TD)学習のモーメントは2倍に不安定になる勾配を蓄積すると主張している。
この現象が存在することを示し、その上で運動量に対する一階補正項を提案する。
この研究の重要な洞察は、深いRL法は、常に監督された設定から直接テクニックをインポートすることで最適ではないということである。
論文 参考訳(メタデータ) (2021-06-07T20:41:15Z) - t-Soft Update of Target Network for Deep Reinforcement Learning [8.071506311915396]
本稿では,深部強化学習(DRL)のためのターゲットネットワークの頑健な更新ルールを提案する。
指数移動平均と正規分布の類似性からt-soft更新法を導出した。
DRLのPyBulletロボットシミュレーションでは、t-soft更新によるオンラインアクター批判アルゴリズムが、得られたリターンおよび/またはそのばらつきの点で従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-08-25T07:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。