論文の概要: Coefficient-based Regularized Distribution Regression
- arxiv url: http://arxiv.org/abs/2208.12427v1
- Date: Fri, 26 Aug 2022 03:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:37:35.807712
- Title: Coefficient-based Regularized Distribution Regression
- Title(参考訳): 係数に基づく正規分布回帰
- Authors: Yuan Mao, Lei Shi and Zheng-Chu Guo
- Abstract要約: 我々は、確率測度から実数値応答への回帰を目的とした係数に基づく正規化分布回帰を、Hilbert空間(RKHS)上で考える。
回帰関数の正則範囲が異なるアルゴリズムの漸近挙動を包括的に研究した。
最適速度は、いくつかの穏やかな条件下で得られるが、これは1段のサンプル化された最小値の最適速度と一致する。
- 参考スコア(独自算出の注目度): 4.21768682940933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the coefficient-based regularized distribution
regression which aims to regress from probability measures to real-valued
responses over a reproducing kernel Hilbert space (RKHS), where the
regularization is put on the coefficients and kernels are assumed to be
indefinite. The algorithm involves two stages of sampling, the first stage
sample consists of distributions and the second stage sample is obtained from
these distributions. Asymptotic behaviors of the algorithm in different
regularity ranges of the regression function are comprehensively studied and
learning rates are derived via integral operator techniques. We get the optimal
rates under some mild conditions, which matches the one-stage sampled minimax
optimal rate. Compared with the kernel methods for distribution regression in
the literature, the algorithm under consideration does not require the kernel
to be symmetric and positive semi-definite and hence provides a simple paradigm
for designing indefinite kernel methods, which enriches the theme of the
distribution regression. To the best of our knowledge, this is the first result
for distribution regression with indefinite kernels, and our algorithm can
improve the saturation effect.
- Abstract(参考訳): 本稿では,再生成核ヒルベルト空間(rkhs)上の確率測度から実数値応答への回帰を目的とした係数に基づく正規化分布回帰を考える。
このアルゴリズムは2段階のサンプリングを含み、第1段階のサンプルは分布からなり、第2段階のサンプルはこれらの分布から得られる。
回帰関数の正則範囲が異なるアルゴリズムの漸近的挙動を包括的に研究し、学習率を積分演算子法による導出を行う。
1段階のミニマックス最適速度に合致する、いくつかの穏やかな条件下で最適な速度を得る。
文献における分散回帰のカーネル法と比較して、検討中のアルゴリズムは、カーネルが対称で正の半定値であることを必要としないため、分布回帰のテーマを豊かにする不確定なカーネル法を設計するための単純なパラダイムを提供する。
我々の知る限りでは、これは不定値カーネルによる分布回帰の最初の結果であり、アルゴリズムは飽和効果を改善することができる。
関連論文リスト
- Optimal Rates for Vector-Valued Spectral Regularization Learning Algorithms [28.046728466038022]
ベクトル値出力を持つ多種多様な正規化アルゴリズムの理論的特性について検討する。
ベクトル値出力によるリッジ回帰に対するいわゆる飽和効果を厳密に検証する。
有限サンプルリスク一般ベクトル値スペクトルアルゴリズムの上限について述べる。
論文 参考訳(メタデータ) (2024-05-23T16:45:52Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - Beyond Exact Gradients: Convergence of Stochastic Soft-Max Policy Gradient Methods with Entropy Regularization [20.651913793555163]
古典的エントロピー正規化政策勾配法をソフトマックス政策パラメトリゼーションで再検討する。
提案したアルゴリズムに対して,大域的最適収束結果と$widetildemathcalO(frac1epsilon2)$のサンプル複雑性を確立する。
論文 参考訳(メタデータ) (2021-10-19T17:21:09Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Fast Statistical Leverage Score Approximation in Kernel Ridge Regression [12.258887270632869]
Nystr"om approximationは、カーネルリッジ回帰(KRR)問題を迅速に解決する高速ランダム化方法です。
本稿では,静止Kernel-based KRRの統計的レバレッジスコアを正確に推定する線形時間アルゴリズム(モジュロポリログ項)を提案する。
論文 参考訳(メタデータ) (2021-03-09T05:57:08Z) - Sparse Representations of Positive Functions via First and Second-Order
Pseudo-Mirror Descent [15.340540198612823]
推定器の範囲が非負である必要がある場合、予測されるリスク問題を考察する。
Emphpseudo-gradientsを用いた近似ミラーの1階および2階の変種を開発した。
実験は、実際に不均一なプロセス強度推定に好適な性能を示す。
論文 参考訳(メタデータ) (2020-11-13T21:54:28Z) - Early stopping and polynomial smoothing in regression with reproducing
kernels [2.132096006921048]
再生カーネルヒルベルト空間(RKHS)における反復学習アルゴリズムの早期停止問題について検討する。
本稿では,いわゆる最小不一致原理に基づく検証セットを使わずに早期停止を行うデータ駆動型ルールを提案する。
提案したルールは、異なるタイプのカーネル空間に対して、ミニマックス最適であることが証明されている。
論文 参考訳(メタデータ) (2020-07-14T05:27:18Z) - A Distributional Analysis of Sampling-Based Reinforcement Learning
Algorithms [67.67377846416106]
定常ステップサイズに対する強化学習アルゴリズムの理論解析に対する分布的アプローチを提案する。
本稿では,TD($lambda$)や$Q$-Learningのような値ベースの手法が,関数の分布空間で制約のある更新ルールを持つことを示す。
論文 参考訳(メタデータ) (2020-03-27T05:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。