論文の概要: Efficient implementation of incremental proximal-point methods
- arxiv url: http://arxiv.org/abs/2205.01457v1
- Date: Tue, 3 May 2022 12:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 18:28:13.913335
- Title: Efficient implementation of incremental proximal-point methods
- Title(参考訳): 漸進的近位点法の効率的な実装
- Authors: Alex Shtoff
- Abstract要約: モデル学習アルゴリズムのための効率的なアルゴリズムと近似演算子の対応する実装を提供する。
また,研究論文における理論記述と実践における使用とのギャップを埋めることで,これらの手法に関するさらなる理論的研究を促進する。
- 参考スコア(独自算出の注目度): 0.571097144710995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model training algorithms which observe a small portion of the training set
in each computational step are ubiquitous in practical machine learning, and
include both stochastic and online optimization methods. In the vast majority
of cases, such algorithms typically observe the training samples via the
gradients of the cost functions the samples incur. Thus, these methods exploit
are the \emph{slope} of the cost functions via their first-order
approximations.
To address limitations of gradient-based methods, such as sensitivity to
step-size choice in the stochastic setting, or inability to exploit small
function variability in the online setting, several streams of research attempt
to exploit more information about the cost functions than just their gradients
via the well-known proximal framework of optimization. However, implementing
such methods in practice poses a challenge, since each iteration step boils
down to computing a proximal operator, which may not be easy. In this work we
provide efficient algorithms and corresponding implementations of proximal
operators in order to make experimentation with incremental proximal
optimization algorithms accessible to a larger audience of researchers and
practitioners, and in particular to promote additional theoretical research
into these methods by closing the gap between their theoretical description in
research papers and their use in practice. The corresponding code is published
at https://github.com/alexshtf/inc_prox_pt.
- Abstract(参考訳): 各計算ステップでトレーニングセットのごく一部を監視するモデルトレーニングアルゴリズムは、実用的な機械学習においてユビキタスであり、確率的およびオンラインの最適化方法の両方を含んでいる。
ほとんどの場合、そのようなアルゴリズムは、通常、サンプルが生み出すコスト関数の勾配を通して、トレーニングサンプルを観察する。
したがって、これらの手法はコスト関数の1次近似によるemph{slope}である。
確率的設定におけるステップサイズ選択に対する感度や、オンライン設定における小さな関数変数を活用できないといった勾配に基づく手法の制限に対処するために、いくつかの研究ストリームは、よく知られた最適化の近近フレームワークを通じて、勾配よりもコスト関数に関するより多くの情報を活用しようと試みている。
しかし、そのような手法を実際に実装することは、各反復ステップが、近位演算子を計算することに沸騰するため、難しい。
本研究では,研究論文における理論的記述と実践的使用とのギャップを埋めることにより,研究者や実践者のより大きな聴衆が利用できる漸進的近位最適化アルゴリズムの実験を行うために,効率的なアルゴリズムとそれに対応する近位演算子の実装を提供する。
対応するコードはhttps://github.com/alexshtf/inc_prox_ptで公開される。
関連論文リスト
- Efficient Computation of Sparse and Robust Maximum Association
Estimators [0.5156484100374059]
高次元経験例は、この手順の有用性を裏付けるものである。
ラグランジアンアルゴリズムとスパース降下の組み合わせはスパース空間の誘導に適した制約を含むように実装されている。
論文 参考訳(メタデータ) (2023-11-29T11:57:50Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - One-step differentiation of iterative algorithms [7.9495796547433395]
本稿では, 自動微分法としての一段階微分法, あるいはジャコビアンフリーバックプロパゲーションについて検討する。
両レベル最適化の結果とともに, 具体例を用いた完全理論的近似解析を行う。
論文 参考訳(メタデータ) (2023-05-23T07:32:37Z) - A Scalable Finite Difference Method for Deep Reinforcement Learning [0.0]
深層強化学習領域における分散労働者の活用に関する問題点を考察する。
我々は、典型的な条件下での全ての接続CPUの100%使用を実現する、安定で低帯域幅の学習アルゴリズムを作成する。
論文 参考訳(メタデータ) (2022-10-14T03:33:53Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Structured Sparsity Inducing Adaptive Optimizers for Deep Learning [94.23102887731417]
本稿では、近位勾配法に必要な成分である重み付き近位作用素を導出する。
この適応法は, 重み付き近位演算子とともに, 空間パターンに構造をもつ解を求めることができることを示す。
論文 参考訳(メタデータ) (2021-02-07T18:06:23Z) - Benchmarking Simulation-Based Inference [5.3898004059026325]
確率的モデリングの最近の進歩は、確率の数値的評価を必要としないシミュレーションに基づく推論アルゴリズムを多数もたらした。
推論タスクと適切なパフォーマンス指標を備えたベンチマークを,アルゴリズムの初期選択とともに提供する。
性能指標の選択は重要であり、最先端のアルゴリズムでさえ改善の余地があり、逐次推定によりサンプリング効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-01-12T18:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。