論文の概要: Sharp Concentration Results for Heavy-Tailed Distributions
- arxiv url: http://arxiv.org/abs/2003.13819v3
- Date: Mon, 25 Jul 2022 19:44:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 07:25:52.706437
- Title: Sharp Concentration Results for Heavy-Tailed Distributions
- Title(参考訳): 重心分布のシャープ濃度測定結果
- Authors: Milad Bakhshizadeh, Arian Maleki, Victor H. de la Pena
- Abstract要約: 重み付き分布を持つ独立分布と同一分布の確率変数の和に対する濃度と大きな偏差を求める。
我々の主定理は、サブワイブル確率変数の和の濃度などの既存の結果のいくつかを復元するだけでなく、重い尾を持つ確率変数の和に対する新しい結果を生成することもできる。
- 参考スコア(独自算出の注目度): 17.510560590853576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We obtain concentration and large deviation for the sums of independent and
identically distributed random variables with heavy-tailed distributions. Our
concentration results are concerned with random variables whose distributions
satisfy $\mathbb{P}(X>t) \leq {\rm e}^{- I(t)}$, where $I: \mathbb{R}
\rightarrow \mathbb{R}$ is an increasing function and $I(t)/t \rightarrow
\alpha \in [0, \infty)$ as $t \rightarrow \infty$. Our main theorem can not
only recover some of the existing results, such as the concentration of the sum
of subWeibull random variables, but it can also produce new results for the sum
of random variables with heavier tails. We show that the concentration
inequalities we obtain are sharp enough to offer large deviation results for
the sums of independent random variables as well. Our analyses which are based
on standard truncation arguments simplify, unify and generalize the existing
results on the concentration and large deviation of heavy-tailed random
variables.
- Abstract(参考訳): 重み付き分布を持つ独立分布と同一分布の確率変数の和に対する濃度と大きな偏差を求める。
我々の濃度結果は、分布が$\mathbb{P}(X>t) \leq {\rm e}^{-I(t)}$を満たす確率変数に関係しており、$I: \mathbb{R} \rightarrow \mathbb{R}$は増加函数であり、$I(t)/t \rightarrow \alpha \in [0, \infty)$ as $t \rightarrow \infty$である。
我々の主定理は、サブワイブル確率変数の和の濃度などの既存の結果のいくつかを復元するだけでなく、重い尾を持つ確率変数の和に対する新しい結果を生成することもできる。
得られた濃度不等式は、独立確率変数の和に対する大きな偏差結果を与えるのに十分なシャープであることを示す。
標準トランザクション引数に基づく解析は, 重み付き確率変数の集中と大きな偏差に関する既存の結果を単純化し, 統一し, 一般化する。
関連論文リスト
- Mean-Square Analysis of Discretized It\^o Diffusions for Heavy-tailed
Sampling [17.415391025051434]
重み付きポインカーの不等式に関連する伊藤拡散の自然クラスを離散化することにより、重み付き分布のクラスからのサンプリングの複雑さを分析する。
平均二乗解析に基づいて、ワッサーシュタイン2計量のターゲット分布に近い分布が$epsilon$のサンプルを得るための反復複雑性を確立する。
論文 参考訳(メタデータ) (2023-03-01T15:16:03Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - A Nearly Tight Bound for Fitting an Ellipsoid to Gaussian Random Points [50.90125395570797]
このことは対数的因子の中でのciteSaundersonCPW12 の予想をほぼ成立させる。
後者の予想は、機械学習とある種の統計上の問題に対する2乗下界との結びつきから、過去10年間で大きな注目を集めている。
論文 参考訳(メタデータ) (2022-12-21T17:48:01Z) - $p$-Generalized Probit Regression and Scalable Maximum Likelihood
Estimation via Sketching and Coresets [74.37849422071206]
本稿では, 2次応答に対する一般化線形モデルである,$p$一般化プロビット回帰モデルについて検討する。
p$の一般化されたプロビット回帰に対する最大可能性推定器は、大容量データ上で$(1+varepsilon)$の係数まで効率的に近似できることを示す。
論文 参考訳(メタデータ) (2022-03-25T10:54:41Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Sharper Sub-Weibull Concentrations: Non-asymptotic Bai-Yin's Theorem [0.0]
非漸近集中不等式は、機械学習と統計学の有限サンプル理論において重要な役割を果たす。
独立部分ワイブル確率変数の和に対する、よりシャープで定数に比例した濃度不等式を得る。
負二項回帰の応用において、スパース構造を持つ$ell$-errorを与え、これは負二項回帰の新しい結果である。
論文 参考訳(メタデータ) (2021-02-04T07:16:27Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z) - Optimal Sub-Gaussian Mean Estimation in $\mathbb{R}$ [5.457150493905064]
ガウス下収束を考慮した新しい推定器を提案する。
我々の推定器はその分散に関する事前の知識を必要としない。
我々の推定器の構成と分析は、他の問題に一般化可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-11-17T02:47:24Z) - $(f,\Gamma)$-Divergences: Interpolating between $f$-Divergences and
Integral Probability Metrics [6.221019624345409]
我々は、$f$-divergences と積分確率メトリクス(IPMs)の両方を仮定する情報理論の分岐を構築するためのフレームワークを開発する。
2段階の質量再分配/物質輸送プロセスとして表現できることが示される。
統計的学習を例として,重み付き,絶対連続的なサンプル分布に対するGAN(generative adversarial network)の訓練において,その優位性を示す。
論文 参考訳(メタデータ) (2020-11-11T18:17:09Z) - Sharp finite-sample concentration of independent variables [5.788221302433176]
大偏差に関するサノフの定理の拡張を示す。
我々は、一致した濃度と反集中境界を持つ確率変数のテール確率を制御する。
論文 参考訳(メタデータ) (2020-08-30T23:05:55Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。