論文の概要: Concentration inequalities for leave-one-out cross validation
- arxiv url: http://arxiv.org/abs/2211.02478v1
- Date: Fri, 4 Nov 2022 14:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 16:25:56.648616
- Title: Concentration inequalities for leave-one-out cross validation
- Title(参考訳): 排他的相互検証のための濃度不等式
- Authors: Benny Avelin and Lauri Viitasaari
- Abstract要約: 評価器の安定性が十分であることを示すことで,残余のクロスバリデーションが健全な手順であることを示す。
特に、損失や推定器上のリプシッツ連続性仮定を超える濃度境界を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this article we prove that estimator stability is enough to show that
leave-one-out cross validation is a sound procedure, by providing concentration
bounds in a general framework. In particular, we provide concentration bounds
beyond Lipschitz continuity assumptions on the loss or on the estimator. In
order to obtain our results, we rely on random variables with distribution
satisfying the logarithmic Sobolev inequality, providing us a relatively rich
class of distributions. We illustrate our method by considering several
interesting examples, including linear regression, kernel density estimation,
and stabilized / truncated estimators such as stabilized kernel regression.
- Abstract(参考訳): 本稿では,一般のフレームワークに濃度境界を設けることで,残余のクロスバリデーションが健全な手順であることを証明するのに,推定器の安定性が十分であることを示す。
特に、損失または推定子に対するリプシッツ連続性仮定を超える濃度境界を提供する。
結果を得るためには,対数ソボレフ不等式を満たす分布を持つ確率変数に依存し,分布の相対的に豊かなクラスを提供する。
本稿では, 線形回帰, カーネル密度推定, 安定化カーネル回帰などの安定化/切り離された推定器など, 興味深い例について考察する。
関連論文リスト
- Uncertainty Quantification via Stable Distribution Propagation [60.065272548502]
本稿では,ニューラルネットワークによる安定確率分布の伝播手法を提案する。
提案手法は局所線形化に基づいており,ReLU非線型性に対する全変動距離の近似値として最適であることを示す。
論文 参考訳(メタデータ) (2024-02-13T09:40:19Z) - A Tale of Sampling and Estimation in Discounted Reinforcement Learning [50.43256303670011]
割引平均推定問題に対して最小値の最小値を求める。
マルコフ過程の割引されたカーネルから直接サンプリングすることで平均を推定すると、説得力のある統計的性質が得られることを示す。
論文 参考訳(メタデータ) (2023-04-11T09:13:17Z) - Stochastic Saddle Point Problems with Decision-Dependent Distributions [0.6091702876917279]
本稿では,静的設定と時間変化設定の両方において決定に依存するサドル点問題に焦点をあてる。
定常ミニマックス問題に対するサドル点である平衡点の概念を導入する。
原始双対アルゴリズムは、同様の方法でサドル点に収束することを示す。
論文 参考訳(メタデータ) (2022-01-07T03:36:41Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Distribution-Free Robust Linear Regression [5.532477732693]
共変体の分布を仮定せずにランダムな設計線形回帰を研究する。
最適部分指数尾を持つオーダー$d/n$の過大なリスクを達成する非線形推定器を構築する。
我々は、Gy"orfi, Kohler, Krzyzak, Walk が原因で、truncated least squares 推定器の古典的境界の最適版を証明した。
論文 参考訳(メタデータ) (2021-02-25T15:10:41Z) - On the Ergodicity, Bias and Asymptotic Normality of Randomized Midpoint
Sampling Method [18.541857410928387]
SL19]により提案されたランダム化拡散法は,連続時間ランゲヴィン・ランゲヴィンをシミュレーションするための最適離散化法として登場した。
論文 参考訳(メタデータ) (2020-11-06T03:39:23Z) - Nonparametric Score Estimators [49.42469547970041]
未知分布によって生成されたサンプルの集合からスコアを推定することは確率モデルの推論と学習における基本的なタスクである。
正規化非パラメトリック回帰の枠組みの下で、これらの推定器の統一的なビューを提供する。
カールフリーカーネルと高速収束による計算効果を享受する反復正規化に基づくスコア推定器を提案する。
論文 参考訳(メタデータ) (2020-05-20T15:01:03Z) - Batch Stationary Distribution Estimation [98.18201132095066]
サンプル遷移の組を与えられたエルゴードマルコフ鎖の定常分布を近似する問題を考える。
与えられたデータに対する補正比関数の復元に基づく一貫した推定器を提案する。
論文 参考訳(メタデータ) (2020-03-02T09:10:01Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z) - Distributed Learning with Dependent Samples [17.075804626858748]
我々は、分散カーネルリッジ回帰のための最適な学習率を、強い混合配列に対して導出する。
本研究は, 分散学習の応用範囲を, サンプルから非I.d.シーケンスまで拡張した。
論文 参考訳(メタデータ) (2020-02-10T14:03:45Z) - Empirical and Instance-Dependent Estimation of Markov Chain and Mixing
Time [5.167069404528051]
本稿では,マルコフ連鎖の混合時間を1つの観測軌道から推定する問題に対処する。
ヒルベルト空間法を用いてスペクトルギャップを推定する以前の多くの研究とは異なり、全変動に対する収縮に基づくアプローチを選択する。
この量はスペクトルギャップとは異なり、強い普遍定数まで混合時間を制御し、可逆鎖にも適用できる。
論文 参考訳(メタデータ) (2019-12-14T13:38:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。