論文の概要: Sharper convergence bounds of Monte Carlo Rademacher Averages through
Self-Bounding functions
- arxiv url: http://arxiv.org/abs/2010.12103v2
- Date: Sat, 16 Jan 2021 19:53:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:13:32.215297
- Title: Sharper convergence bounds of Monte Carlo Rademacher Averages through
Self-Bounding functions
- Title(参考訳): モンテカルロラデマッハ平均値の自己拘束関数によるよりシャープな収束限界
- Authors: Leonardo Pellegrina
- Abstract要約: 我々はモンテカルロ経験的ラデマチャー平均値に対するよりシャープな確率的濃度境界を導出した。
新しい結果は (Local) Rademacher Averages によりシャープな境界を与えるために適用できる。
- 参考スコア(独自算出の注目度): 4.518012967046983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We derive sharper probabilistic concentration bounds for the Monte Carlo
Empirical Rademacher Averages (MCERA), which are proved through recent results
on the concentration of self-bounding functions. Our novel bounds are
characterized by convergence rates that depend on data-dependent characteristic
quantities of the set of functions under consideration, such as the empirical
wimpy variance, an essential improvement w.r.t. standard bounds based on the
methods of bounded differences. For this reason, our new results are applicable
to yield sharper bounds to (Local) Rademacher Averages. We also derive improved
novel variance-dependent bounds for the special case where only one vector of
Rademacher random variables is used to compute the MCERA, through the
application of Bousquet's inequality and novel data-dependent bounds to the
wimpy variance. Then, we leverage the framework of self-bounding functions to
derive novel probabilistic bounds to the supremum deviations, that may be of
independent interest.
- Abstract(参考訳): モンテカルロ実験ラデマッハ平均値 (mcera) のより鋭い確率的濃度境界を導出し, 自己結合関数の濃度について最近の結果から証明した。
この新しい境界は, 関数集合のデータ依存特性量に依存する収束率によって特徴づけられる。例えば, 経験的ウィンピー分散, 有界差の手法に基づく本質的改善 w.r.t. 標準境界などである。
このため、新しい結果は(局所)ラデマチャー平均値によりシャープな境界を求めるために適用できる。
また、Bousquetの不等式とウィムピー分散に対する新しいデータ依存境界の適用により、Rademacher確率変数の1つのベクトルのみが MCERA を計算する特別な場合において、新しい分散依存境界を導出する。
次に, 自己束縛関数の枠組みを活用し, 独立な利害関係を持つ超越偏差に対する新しい確率的境界を導出する。
関連論文リスト
- Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - A distribution-free valid p-value for finite samples of bounded random variables [0.0]
Plekis, Ramon, Wang が導入した有界確率変数の濃度不等式に基づく有効な p-値を構築する。
この研究の背後にある動機は、分布のない環境で予測アルゴリズムの校正である。
この研究で示された考え方は、古典的な統計的推論にも関係している。
論文 参考訳(メタデータ) (2024-05-14T22:01:04Z) - Distribution Estimation under the Infinity Norm [19.997465098927858]
我々は$ell_infty$ノルムの下で離散確率分布を推定するための新しい境界を示す。
我々のデータ依存収束保証は、現在知られている結果に対して最大極大推定器を著しく改善する。
論文 参考訳(メタデータ) (2024-02-13T12:49:50Z) - Exact Non-Oblivious Performance of Rademacher Random Embeddings [79.28094304325116]
本稿では,Rademacherランダムプロジェクションの性能を再検討する。
入力データに関して数値的に鋭く、曖昧でない新しい統計的保証を確立する。
論文 参考訳(メタデータ) (2023-03-21T11:45:27Z) - Function-space regularized R\'enyi divergences [6.221019624345409]
変分関数空間によってパラメトリズされた正則化 R'enyi divergences の新しい族を提案する。
これらの新しい発散のいくつかの性質を証明し、古典的な R'enyi 発散と IPM 間を補間していることを示す。
提案した正規化 R'enyi は、絶対連続でない分布を比較する能力など、IMM から特徴を継承することを示した。
論文 参考訳(メタデータ) (2022-10-10T19:18:04Z) - Data-Driven Influence Functions for Optimization-Based Causal Inference [105.5385525290466]
統計的汎関数に対するガトー微分を有限差分法で近似する構成的アルゴリズムについて検討する。
本研究では,確率分布を事前知識がないが,データから推定する必要がある場合について検討する。
論文 参考訳(メタデータ) (2022-08-29T16:16:22Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - A Unified Joint Maximum Mean Discrepancy for Domain Adaptation [73.44809425486767]
本論文は,最適化が容易なjmmdの統一形式を理論的に導出する。
統合JMMDから、JMMDは分類に有利な特徴ラベル依存を低下させることを示す。
本稿では,その依存を促進する新たなmmd行列を提案し,ラベル分布シフトにロバストな新しいラベルカーネルを考案する。
論文 参考訳(メタデータ) (2021-01-25T09:46:14Z) - Relative Deviation Margin Bounds [55.22251993239944]
我々はRademacher複雑性の観点から、分布依存と一般家庭に有効な2種類の学習境界を与える。
有限モーメントの仮定の下で、非有界な損失関数に対する分布依存的一般化境界を導出する。
論文 参考訳(メタデータ) (2020-06-26T12:37:17Z) - Optimal Bounds between $f$-Divergences and Integral Probability Metrics [8.401473551081748]
確率分布の類似性を定量化するために、$f$-divergencesとIntegral Probability Metricsが広く使われている。
両家系の関係を凸双対性の観点から体系的に研究する。
我々は、Hoeffdingの補題のような統一的な方法でよく知られた結果を回復しながら、新しい境界を得る。
論文 参考訳(メタデータ) (2020-06-10T17:39:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。