論文の概要: Optimal kernel regression bounds under energy-bounded noise
- arxiv url: http://arxiv.org/abs/2505.22235v1
- Date: Wed, 28 May 2025 11:11:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.566525
- Title: Optimal kernel regression bounds under energy-bounded noise
- Title(参考訳): エネルギー束縛雑音下での最適核回帰境界
- Authors: Amon Lahr, Johannes Köhler, Anna Scampicchio, Melanie N. Zeilinger,
- Abstract要約: カーネルベースの推定のために、厳密で漸近的でない不確実性を導出する。
カーネルベースの推定値に対して,厳密で計算が容易なバウンダリを返却する効果を示す。
- 参考スコア(独自算出の注目度): 2.6661512675766037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-conservative uncertainty bounds are key for both assessing an estimation algorithm's accuracy and in view of downstream tasks, such as its deployment in safety-critical contexts. In this paper, we derive a tight, non-asymptotic uncertainty bound for kernel-based estimation, which can also handle correlated noise sequences. Its computation relies on a mild norm-boundedness assumption on the unknown function and the noise, returning the worst-case function realization within the hypothesis class at an arbitrary query input location. The value of this function is shown to be given in terms of the posterior mean and covariance of a Gaussian process for an optimal choice of the measurement noise covariance. By rigorously analyzing the proposed approach and comparing it with other results in the literature, we show its effectiveness in returning tight and easy-to-compute bounds for kernel-based estimates.
- Abstract(参考訳): 非保守的不確実性境界は、推定アルゴリズムの正確性の評価と、安全性クリティカルなコンテキストへの展開のような下流タスクの観点の両方において重要である。
本稿では,相関ノイズ列も扱えるカーネルベース推定のための,厳密で漸近的でない不確実性を導出する。
その計算は未知の関数とノイズに関する軽度のノルム境界性仮定に依存し、任意のクエリ入力位置で仮説クラス内の最悪の関数実現を返す。
この関数の値は、測定ノイズ共分散の最適選択のためのガウス過程の後方平均と共分散の観点から与えられる。
提案手法を厳密に分析し、文献で他の結果と比較することにより、カーネルベースの推定値に対して、厳密で容易に計算可能なバウンダリを返す効果を示す。
関連論文リスト
- Robust Non-parametric Knowledge-based Diffusion Least Mean Squares over
Adaptive Networks [12.266804067030455]
提案アルゴリズムは, 協調推定器群における未知パラメータベクトルのロバストな推定に導かれる。
その結果,異なるノイズの種類が存在する場合,提案アルゴリズムのロバスト性を示す。
論文 参考訳(メタデータ) (2023-12-03T06:18:59Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Gaussian Processes with State-Dependent Noise for Stochastic Control [2.842794675894731]
力学系の残留モデル不確実性はガウス過程(GP)を用いて学習される
2つのGPは相互依存しており、反復アルゴリズムを用いて共同で学習される。
論文 参考訳(メタデータ) (2023-05-25T16:36:57Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - On the Role of Entropy-based Loss for Learning Causal Structures with
Continuous Optimization [27.613220411996025]
因果構造学習問題を最小二乗損失を用いた連続最適化問題として定式化する。
ガウス雑音の仮定に違反すると因果方向の同定が妨げられることを示す。
より一般的なエントロピーに基づく損失は、任意の雑音分布下での確率スコアと理論的に一致している。
論文 参考訳(メタデータ) (2021-06-05T08:29:51Z) - Uncertainty quantification for nonconvex tensor completion: Confidence
intervals, heteroscedasticity and optimality [92.35257908210316]
本研究では,不完全かつ破損した観測によって与えられる低ランクテンソルを推定する問題について検討する。
改善不可能なレートをell-2$の精度で達成できることが分かりました。
論文 参考訳(メタデータ) (2020-06-15T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。