論文の概要: Adaptive Parameter Selection for Kernel Ridge Regression
- arxiv url: http://arxiv.org/abs/2312.05885v1
- Date: Sun, 10 Dec 2023 13:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:16:15.699507
- Title: Adaptive Parameter Selection for Kernel Ridge Regression
- Title(参考訳): カーネルリッジ回帰に対する適応パラメータ選択
- Authors: Shao-Bo Lin
- Abstract要約: 本稿ではカーネルリッジ回帰(KRR)のパラメータ選択問題に焦点をあてる。
KRRの特別なスペクトル特性により、パラメータ間隔の微妙な分割が、2つの連続するKRR推定値の差を縮めることが分かる。
我々は、いわゆるLepskii型原理に従って、KRRの早期ストッピング型パラメータ選択戦略を開発する。
- 参考スコア(独自算出の注目度): 16.389581549801253
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper focuses on parameter selection issues of kernel ridge regression
(KRR). Due to special spectral properties of KRR, we find that delicate
subdivision of the parameter interval shrinks the difference between two
successive KRR estimates. Based on this observation, we develop an
early-stopping type parameter selection strategy for KRR according to the
so-called Lepskii-type principle. Theoretical verifications are presented in
the framework of learning theory to show that KRR equipped with the proposed
parameter selection strategy succeeds in achieving optimal learning rates and
adapts to different norms, providing a new record of parameter selection for
kernel methods.
- Abstract(参考訳): 本稿ではカーネルリッジ回帰(KRR)のパラメータ選択問題に焦点をあてる。
KRRの特別なスペクトル特性により、パラメータ間隔の微妙な分割が2つの連続KRR推定値の差を縮めることが分かる。
そこで本研究では,krrの早期停止型パラメータ選択戦略を,いわゆるlepskii型原理に基づいて開発する。
理論的検証は,提案したパラメータ選択戦略を備えたKRRが最適学習率の達成に成功し,異なる基準に適応し,カーネル手法のパラメータ選択の新たな記録を提供するための学習理論の枠組みとして提示される。
関連論文リスト
- An In-depth Investigation of Sparse Rate Reduction in Transformer-like Models [32.04194224236952]
スパースレートリダクション(SRR)と呼ばれる情報理論目的関数を提案する。
SRRは正の相関係数を持ち、パスノルムやシャープネスベースなど他の基準値よりも優れていることを示す。
ベンチマーク画像分類データセットの正規化として,SRRを用いて一般化を改善することができることを示す。
論文 参考訳(メタデータ) (2024-11-26T07:44:57Z) - Lepskii Principle for Distributed Kernel Ridge Regression [16.389581549801253]
本稿では,分散カーネルリッジ回帰(DKRR)を実現するためのLepskiiの原理を提案する。
我々はLep-AdaDKRRの最適学習率を推定し、Lep-AdaDKRRが回帰関数の正則性に適応できることを理論的に示す。
論文 参考訳(メタデータ) (2024-09-08T12:12:18Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Optimizing ADMM and Over-Relaxed ADMM Parameters for Linear Quadratic
Problems [32.04687753889809]
Alternating Direction Method of Multipliers (ADMM) は、幅広い機械学習アプリケーションで注目を集めている。
本稿では, ペナルティパラメータの値を最適化するための一般的な手法を提案し, 続いて, 最適緩和パラメータを計算するための新しいクローズドフォーム式を提案する。
次に、ランダムなインスタンス化と多様なイメージングアプリケーションを用いてパラメータ選択法を実験的に検証する。
論文 参考訳(メタデータ) (2024-01-01T04:01:40Z) - Optimal Goal-Reaching Reinforcement Learning via Quasimetric Learning [73.80728148866906]
準メトリック強化学習(QRL)は、準メトリックモデルを用いて最適な値関数を学習する新しいRL法である。
オフラインおよびオンラインの目標達成ベンチマークでは、QRLはサンプル効率とパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2023-04-03T17:59:58Z) - The Choice of Noninformative Priors for Thompson Sampling in
Multiparameter Bandit Models [56.31310344616837]
トンプソンサンプリング(TS)は、様々な報酬モデルにまたがる理論的な保証によって支持される卓越した経験的性能で知られている。
本研究では,理論的理解の欠如のある新しいモデルを扱う際に,非形式的事前選択がTSの性能に与える影響について考察する。
論文 参考訳(メタデータ) (2023-02-28T08:42:42Z) - Sharp Variance-Dependent Bounds in Reinforcement Learning: Best of Both
Worlds in Stochastic and Deterministic Environments [48.96971760679639]
マルコフ決定過程(MDP)の分散依存的後悔境界について検討する。
環境の微細な分散特性を特徴付けるための2つの新しい環境規範を提案する。
モデルに基づく手法では、MVPアルゴリズムの変種を設計する。
特に、この境界は極小かつ決定論的 MDP に対して同時に最適である。
論文 参考訳(メタデータ) (2023-01-31T06:54:06Z) - Dynamic selection of p-norm in linear adaptive filtering via online
kernel-based reinforcement learning [8.319127681936815]
本研究は, 線形適応フィルタリングにおいて, 最適p-ノルムが外れ値と競合する問題に対して, 動的に選択する問題に対処する。
オンラインおよびデータ駆動型フレームワークはカーネルベース強化学習(KBRL)によって設計される
論文 参考訳(メタデータ) (2022-10-20T14:49:39Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Selective machine learning of doubly robust functionals [6.880360838661036]
半パラメトリックモデル上で定義された有限次元関数に関する推論を行うための選択的機械学習フレームワークを提案する。
疑似リスクの新たな定義に基づき、興味の機能を推定する際のバイアス低減を目的とした新しい選択基準を導入する。
論文 参考訳(メタデータ) (2019-11-05T19:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。