論文の概要: Taylor Learning
- arxiv url: http://arxiv.org/abs/2305.14606v1
- Date: Wed, 24 May 2023 01:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 20:47:13.679878
- Title: Taylor Learning
- Title(参考訳): Taylor の学習
- Authors: James Schmidt
- Abstract要約: 経験的リスク最小化は、教師付き機械学習におけるほとんどの最適化の背後にある。
本稿では,勾配降下や経験的リスク最小化を用いない実解析関数モデルを構築するための学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Empirical risk minimization stands behind most optimization in supervised
machine learning. Under this scheme, labeled data is used to approximate an
expected cost (risk), and a learning algorithm updates model-defining
parameters in search of an empirical risk minimizer, with the aim of thereby
approximately minimizing expected cost. Parameter update is often done by some
sort of gradient descent. In this paper, we introduce a learning algorithm to
construct models for real analytic functions using neither gradient descent nor
empirical risk minimization. Observing that such functions are defined by local
information, we situate familiar Taylor approximation methods in the context of
sampling data from a distribution, and prove a nonuniform learning result.
- Abstract(参考訳): 経験的リスク最小化は、教師付き機械学習におけるほとんどの最適化の背後にある。
この方式では、ラベル付きデータを用いて予測コスト(リスク)を近似し、学習アルゴリズムは、予測コストをほぼ最小化することを目的とした経験的リスク最小化器の探索において、モデル定義パラメータを更新する。
パラメータ更新は、多くの場合、勾配降下によって行われる。
本稿では,勾配降下や経験的リスク最小化を用いない実解析関数モデルを構築するための学習アルゴリズムを提案する。
このような関数が局所的な情報によって定義されることを観察し、分布からデータをサンプリングする文脈でよく知られたテイラー近似法を定式化し、非一様学習結果を証明する。
関連論文リスト
- Symmetric Q-learning: Reducing Skewness of Bellman Error in Online
Reinforcement Learning [55.75959755058356]
深層強化学習では、状態や行動の質を評価するために、価値関数を推定することが不可欠である。
最近の研究では、値関数を訓練する際の誤差分布はベルマン作用素の特性のためにしばしば歪むことが示唆されている。
そこで我々は,ゼロ平均分布から発生する合成ノイズを目標値に加え,ガウス誤差分布を生成するSymmetric Q-learning法を提案する。
論文 参考訳(メタデータ) (2024-03-12T14:49:19Z) - Nonparametric Linear Feature Learning in Regression Through
Regularisation [0.0]
本研究では,データの低次元線形部分空間内に存在する情報を教師付き学習シナリオに焦点をあてる。
線形部分空間を同時に推定する非パラメトリック予測を用いた線形特徴学習法を提案する。
当社のアプローチでは,デリバティブに対するペナルティを付加した経験的リスク最小化を採用し,汎用性を確保している。
論文 参考訳(メタデータ) (2023-07-24T12:52:55Z) - How to escape sharp minima with random perturbations [54.05440117388505]
平らなミニマの概念とそれらを見つける複雑さについて研究する。
一般的なコスト関数に対して、近似平坦な局所最小値を求める勾配に基づくアルゴリズムについて論じる。
コスト関数がトレーニングデータよりも経験的リスクであるような環境では、シャープネス認識最小化と呼ばれる最近提案された実用的なアルゴリズムにインスパイアされたより高速なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-25T02:12:33Z) - A Tale of Sampling and Estimation in Discounted Reinforcement Learning [50.43256303670011]
割引平均推定問題に対して最小値の最小値を求める。
マルコフ過程の割引されたカーネルから直接サンプリングすることで平均を推定すると、説得力のある統計的性質が得られることを示す。
論文 参考訳(メタデータ) (2023-04-11T09:13:17Z) - Improved Convergence Rates for Sparse Approximation Methods in
Kernel-Based Learning [48.08663378234329]
カーネル・リッジ・レグレッションやガウシアン・プロセスのようなカーネル・ベース・モデルは機械学習の応用においてユビキタスである。
既存のスパース近似法は計算コストを大幅に削減することができる。
我々は,Nystr"om法と疎変動ガウス過程近似法に対して,新しい信頼区間を提供する。
論文 参考訳(メタデータ) (2022-02-08T17:22:09Z) - Robust supervised learning with coordinate gradient descent [0.0]
偏微分のロバストな推定器を併用した学習アルゴリズムとして座標勾配降下法を提案する。
これにより、非破壊的な数値的な複雑性を持つ頑健な統計的学習法が導かれる。
論文 参考訳(メタデータ) (2022-01-31T17:33:04Z) - Approximate Regions of Attraction in Learning with Decision-Dependent
Distributions [11.304363655760513]
我々は、繰り返しリスク最小化を、実行リスク最小化の勾配流の軌跡として分析する。
この設定において、様々な平衡に対するアトラクションの領域を特徴付ける条件を提供する。
本稿では、繰り返しリスク最小化の収束に関する幾何学的条件を提供する性能的アライメントの概念を、性能的リスク最小化に導入する。
論文 参考訳(メタデータ) (2021-06-30T18:38:08Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Effective Proximal Methods for Non-convex Non-smooth Regularized
Learning [27.775096437736973]
独立サンプリング方式は、一般に使用されている一様サンプリング方式の性能を向上させる傾向にあることを示す。
我々の新しい分析は、サンプリングの速度が今までで最高のものより速いことも示しています。
論文 参考訳(メタデータ) (2020-09-14T16:41:32Z) - Principled learning method for Wasserstein distributionally robust
optimization with local perturbations [21.611525306059985]
ワッサーシュタイン分布論的ロバスト最適化(WDRO)は、実験データ分布近傍の局所的な最悪のリスクを最小限に抑えるモデルを学習しようとする。
本稿では,新しい近似定理に基づく最小化器を提案し,それに対応するリスク一貫性結果を提供する。
提案手法は,ノイズのあるデータセットのベースラインモデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2020-06-05T09:32:37Z) - Minimax-Optimal Off-Policy Evaluation with Linear Function Approximation [49.502277468627035]
本稿では,関数近似を用いたバッチデータ強化学習の統計的理論について検討する。
記録履歴から新たな対象政策の累積値を推定するオフ・ポリティクス評価問題を考察する。
論文 参考訳(メタデータ) (2020-02-21T19:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。