論文の概要: Implicit Parameter-free Online Learning with Truncated Linear Models
- arxiv url: http://arxiv.org/abs/2203.10327v1
- Date: Sat, 19 Mar 2022 13:39:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 18:28:34.890380
- Title: Implicit Parameter-free Online Learning with Truncated Linear Models
- Title(参考訳): 簡約線形モデルを用いた入出力パラメータフリーオンライン学習
- Authors: Keyi Chen and Ashok Cutkosky and Francesco Orabona
- Abstract要約: パラメータフリーアルゴリズムは、設定された学習率を必要としないオンライン学習アルゴリズムである。
そこで我々は,「単純」なフレーバーを持つ新しい更新によって,切り離された線形モデルを活用できる新しいパラメータフリーアルゴリズムを提案する。
後悔の新たな分解に基づいて、新しい更新は効率的で、各ステップで1つの勾配しか必要とせず、切り捨てられたモデルの最小値をオーバーシュートすることはない。
- 参考スコア(独自算出の注目度): 51.71216912089413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parameter-free algorithms are online learning algorithms that do not require
setting learning rates. They achieve optimal regret with respect to the
distance between the initial point and any competitor. Yet, parameter-free
algorithms do not take into account the geometry of the losses. Recently, in
the stochastic optimization literature, it has been proposed to instead use
truncated linear lower bounds, which produce better performance by more closely
modeling the losses. In particular, truncated linear models greatly reduce the
problem of overshooting the minimum of the loss function. Unfortunately,
truncated linear models cannot be used with parameter-free algorithms because
the updates become very expensive to compute. In this paper, we propose new
parameter-free algorithms that can take advantage of truncated linear models
through a new update that has an "implicit" flavor. Based on a novel
decomposition of the regret, the new update is efficient, requires only one
gradient at each step, never overshoots the minimum of the truncated model, and
retains the favorable parameter-free properties. We also conduct an empirical
study demonstrating the practical utility of our algorithms.
- Abstract(参考訳): パラメータフリーアルゴリズムは、学習率の設定を必要としないオンライン学習アルゴリズムである。
初期点と任意の競合点の間の距離に関して最適な後悔を達成する。
しかし、パラメータフリーアルゴリズムは損失の幾何学を考慮に入れない。
近年, 確率最適化文献において, 損失をより密接にモデル化することにより, より優れた性能を実現するために, 切断された線形下限を用いる方法が提案されている。
特に、切断された線形モデルは損失関数の最小をオーバーシュートする問題を大幅に削減する。
残念なことに、切り詰められた線形モデルはパラメータフリーのアルゴリズムでは利用できない。
本稿では,'簡易'なフレーバーを持つ新しい更新により,断続線形モデルを活用できるパラメータフリーな新しいアルゴリズムを提案する。
後悔の新たな分解に基づいて、新しいアップデートは効率的であり、各ステップで1つの勾配しか必要とせず、停止したモデルの最小値を上書きせず、パラメータフリーな特性を維持している。
また,アルゴリズムの実用性を実証した実証的研究を行った。
関連論文リスト
- Zeroth-Order Adaptive Neuron Alignment Based Pruning without Re-Training [3.195234044113248]
我々は、高密度事前学習モデルの関数情報を利用して、アクティベーションのアライメントw.r.tを最大化するスパースモデルを得る。
我々は,アクティベーション間のニューロンアライメントを最大化するために,ブロックワイドと行ワイドの間隔比を変更するエンフェップアップアルゴリズムであるtextscNeuroAlを提案する。
提案手法は,4つの異なるLLMファミリーと3つの異なる空間比で検証し,最新の最先端技術よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-11-11T15:30:16Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Regret-Optimal Model-Free Reinforcement Learning for Discounted MDPs
with Short Burn-In Time [13.545356254920584]
本稿では,分散削減を利用したモデルフリーアルゴリズムと,実行方針を低速かつ適応的に切り替える新しい手法を提案する。
これは割引設定における最初の後悔の最適モデルフリーアルゴリズムであり、バーンイン時間の短縮によるメリットがある。
論文 参考訳(メタデータ) (2023-05-24T20:22:43Z) - Online Learning Under A Separable Stochastic Approximation Framework [20.26530917721778]
分離可能な近似フレームワークを用いて,機械学習モデルのクラスに対するオンライン学習アルゴリズムを提案する。
提案アルゴリズムは,他の一般的な学習アルゴリズムと比較して,より堅牢でテスト性能が高いことを示す。
論文 参考訳(メタデータ) (2023-05-12T13:53:03Z) - Statistical Complexity and Optimal Algorithms for Non-linear Ridge
Bandits [39.391636494257284]
選択した行動の非線形関数を平均結果とするシーケンシャルな意思決定問題を考える。
特に、まず良い初期作用を見つけ、次に問題を局所線型として扱う2段階のアルゴリズムは統計的に最適である。
論文 参考訳(メタデータ) (2023-02-12T23:20:41Z) - Smoothed Online Learning is as Easy as Statistical Learning [77.00766067963195]
この設定では、最初のオラクル効率、非回帰アルゴリズムを提供する。
古典的な設定で関数クラスが学習可能な場合、文脈的包帯に対するオラクル効率のよい非回帰アルゴリズムが存在することを示す。
論文 参考訳(メタデータ) (2022-02-09T19:22:34Z) - Adapting to Misspecification in Contextual Bandits [82.55565343668246]
我々は、$varepsilon$-misspecified contextual banditsに対して、新しいオラクル効率アルゴリズム群を導入する。
我々は、未知の不特定値に対して最適な$O(dsqrtT + varepsilonsqrtdT)$ regret boundを達成する最初のアルゴリズムを得る。
論文 参考訳(メタデータ) (2021-07-12T21:30:41Z) - Implicit Finite-Horizon Approximation and Efficient Optimal Algorithms
for Stochastic Shortest Path [29.289190242826688]
本稿では,最短経路(SSP)モデルにおいて,後悔するアルゴリズムを開発するための汎用テンプレートを提案する。
まず、厳密な正のコストでモデルフリーとミニマックス最適の2つの新しいアルゴリズムを開発する。
どちらのアルゴリズムも高度にスパースな更新を認めており、既存のアルゴリズムよりも計算効率が良い。
論文 参考訳(メタデータ) (2021-06-15T19:15:17Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。