論文の概要: Online Regenerative Learning
- arxiv url: http://arxiv.org/abs/2209.08657v1
- Date: Sun, 18 Sep 2022 21:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 20:06:15.584919
- Title: Online Regenerative Learning
- Title(参考訳): オンライン再生学習
- Authors: Owen Shen
- Abstract要約: 入力による目的関数を最大化するオンライン線形プログラミング(OLP)問題について検討する。
このタイプの OLP を解析する様々なアルゴリズムの性能は、入力が i.i.d 分布に従うとよく研究される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a type of Online Linear Programming (OLP) problem that maximizes the
objective function with stochastic inputs. The performance of various
algorithms that analyze this type of OLP is well studied when the stochastic
inputs follow some i.i.d distribution. The two central questions to ask are:
(i) can the algorithms achieve the same efficiency if the stochastic inputs are
not i.i.d but still stationary, and (ii) how can we modify our algorithms if we
know the stochastic inputs are trendy, hence not stationary. We answer the
first question by analyzing a regenerative type of input and show the regret of
two popular algorithms are bounded by the same order as their i.i.d
counterpart. We discuss the second question in the context of linearly growing
inputs and propose two trend-adaptive algorithms. We provide numerical
simulations to illustrate the performance of our algorithms under both
regenerative and trendy inputs.
- Abstract(参考訳): 対象関数を確率的入力で最大化するオンラインリニアプログラミング(olp)問題について検討する。
このタイプのOLPを解析する様々なアルゴリズムの性能は、確率的入力がいくつかのi.i.d分布に従うとよく研究される。
質問の中心となる2つの質問は
(i)確率入力がi.i.dではなく静止している場合、アルゴリズムは同じ効率が得られるか。
(II)確率入力がトレンドであることを知っていれば、アルゴリズムをどう修正するか。
再生型入力を解析して最初の質問に答え、一般的な2つのアルゴリズムがi.i.dと同じ順序で有界であることの後悔を示す。
線形に拡大する入力の文脈で2つ目の疑問を議論し, 2つのトレンド適応アルゴリズムを提案する。
再生型とトレンド型の両方の入力下でのアルゴリズムの性能を示す数値シミュレーションを提供する。
関連論文リスト
- Stochastic Ratios Tracking Algorithm for Large Scale Machine Learning
Problems [0.7614628596146599]
古典的なSGDフレームワークにおける適応的なステップ長選択のための新しいアルゴリズムを提案する。
妥当な条件下では、アルゴリズムは十分に確立された理論的な要件に従ってステップ長を生成する。
このアルゴリズムは,手動チューニングから得られる最良ステップ長に匹敵するステップ長を生成することができることを示す。
論文 参考訳(メタデータ) (2023-05-17T06:22:11Z) - Online Learning Under A Separable Stochastic Approximation Framework [20.26530917721778]
分離可能な近似フレームワークを用いて,機械学習モデルのクラスに対するオンライン学習アルゴリズムを提案する。
提案アルゴリズムは,他の一般的な学習アルゴリズムと比較して,より堅牢でテスト性能が高いことを示す。
論文 参考訳(メタデータ) (2023-05-12T13:53:03Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Learning with Subset Stacking [0.40964539027092906]
入力-出力ペアの集合から学習する新しい回帰アルゴリズムを提案する。
我々はこのアルゴリズムを「サブセット・スタックング」あるいは「LESS」と呼ぶが、これは回帰器を積み重ねる手法に似ているためである。
論文 参考訳(メタデータ) (2021-12-12T14:33:49Z) - Adaptive First- and Second-Order Algorithms for Large-Scale Machine
Learning [3.0204520109309843]
機械学習における連続最適化問題に対処する一階法と二階法を考察する。
一階述語の場合、半決定論的から二次正規化への遷移の枠組みを提案する。
本稿では,適応的なサンプリングと適応的なステップサイズを持つ新しい1次アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-29T18:10:00Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - An Adaptive Stochastic Sequential Quadratic Programming with
Differentiable Exact Augmented Lagrangians [17.9230793188835]
本稿では,客観的・決定論的等式を考慮した非線形最適化プログラムの解法について考察する。
本稿では,微分可能な拡張ラグランジアンをメリット関数として用いた逐次二次計画法(SQP)を提案する。
提案アルゴリズムは,行探索手順と1行探索手順を許容する最初のSQPである。
論文 参考訳(メタデータ) (2021-02-10T08:40:55Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z) - Determinantal Point Processes in Randomized Numerical Linear Algebra [80.27102478796613]
数値線形代数(RandNLA)は、科学計算、データサイエンス、機械学習などで発生する行列問題に対する改良されたアルゴリズムを開発するためにランダム性を使用する。
最近の研究により、DPPとRandNLAの間の深い実りある関係が明らかになり、新たな保証とアルゴリズムの改善につながった。
論文 参考訳(メタデータ) (2020-05-07T00:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。