論文の概要: Exponential tail bounds and Large Deviation Principle for Heavy-Tailed
U-Statistics
- arxiv url: http://arxiv.org/abs/2301.11563v1
- Date: Fri, 27 Jan 2023 06:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 16:13:23.366182
- Title: Exponential tail bounds and Large Deviation Principle for Heavy-Tailed
U-Statistics
- Title(参考訳): 重み付きU統計における指数テール境界と大偏差原理
- Authors: Milad Bakhshizadeh
- Abstract要約: 重み付き分布を持つ試料のU統計値の偏差について検討した。
文献における通常の LDP 結果にもかかわらず,本研究で検討するプロセスは,サンプルサイズよりもLDP の速度が遅い。
- 参考スコア(独自算出の注目度): 3.553493344868414
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study deviation of U-statistics when samples have heavy-tailed
distribution so the kernel of the U-statistic does not have bounded exponential
moments at any positive point. We obtain an exponential upper bound for the
tail of the U-statistics which clearly denotes two regions of tail decay, the
first is a Gaussian decay and the second behaves like the tail of the kernel.
For several common U-statistics, we also show the upper bound has the right
rate of decay as well as sharp constants by obtaining rough logarithmic limits
which in turn can be used to develop LDP for U-statistics. In spite of usual
LDP results in the literature, processes we consider in this work have LDP
speed slower than their sample size $n$.
- Abstract(参考訳): サンプルが重み付き分布を持つ場合のU統計の偏差について検討し、U統計の核が任意の正の点で指数モーメントを有さないようにする。
我々は、U-統計学の尾の指数的上界を求め、これは2つの尾崩壊の領域を明確に示し、1つはガウス崩壊、2つは核の尾のように振る舞う。
いくつかの一般的なU統計学において、上界は、U統計学の LDP を開発するために用いられる粗対数制限を得ることにより、適切な崩壊率と鋭い定数を持つことを示す。
文献における通常の LDP 結果にもかかわらず、本研究で検討するプロセスは、サンプルサイズ $n$ よりも LDP の速度が遅い。
関連論文リスト
- A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Local Discovery by Partitioning: Polynomial-Time Causal Discovery Around Exposure-Outcome Pairs [18.31538168213386]
本稿では,因果推論タスクの分割(LDP)による局所的な発見を提案する。
LDPは制約ベースのプロシージャで、潜伏したコンバウンディングの下で露光出力ペアのVASを返す。
LDPの調整セットは、ベースライン発見アルゴリズムよりもバイアスが少なく、より正確な平均処理効果の推定値が得られる。
論文 参考訳(メタデータ) (2023-10-25T14:53:10Z) - A High-dimensional Convergence Theorem for U-statistics with
Applications to Kernel-based Testing [3.469038201881982]
次数2のU-統計量に対して収束定理を証明し、データ次元$d$はサンプルサイズ$n$でスケールすることができる。
我々はこの理論を、高次元性能の研究が困難である2つのカーネルベースの分散テスト MMD と KSD に適用した。
論文 参考訳(メタデータ) (2023-02-11T12:49:46Z) - Robust computation of optimal transport by $\beta$-potential
regularization [79.24513412588745]
最適輸送(OT)は、確率分布間の差を測定する機械学習分野で広く使われているツールである。
我々は、いわゆる$beta$-divergenceに付随するベータポテンシャル項でOTを正規化することを提案する。
提案アルゴリズムで計算した輸送行列は,外乱が存在する場合でも確率分布を頑健に推定するのに役立つことを実験的に実証した。
論文 参考訳(メタデータ) (2022-12-26T18:37:28Z) - Statistical Efficiency of Score Matching: The View from Isoperimetry [96.65637602827942]
本研究では, スコアマッチングの統計的効率と推定される分布の等尺性との間に, 密接な関係を示す。
これらの結果はサンプル状態と有限状態の両方で定式化する。
論文 参考訳(メタデータ) (2022-10-03T06:09:01Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - On Estimating Rank-One Spiked Tensors in the Presence of Heavy Tailed
Errors [10.166435679260015]
重く尾のノイズが存在する場合のランク1スパイクテンソルの推定について検討した。
この結果から,統計的および計算効率のトレードオフにおける基本的な類似点と相違点が浮き彫りにされた。
論文 参考訳(メタデータ) (2021-07-20T17:45:55Z) - Statistical inference using Regularized M-estimation in the reproducing
kernel Hilbert space for handling missing data [0.76146285961466]
まずカーネルリッジレグレッションを用いてアイテム非応答の処理を行う。
カーネルヒルベルト空間を用いた非パラメトリック確率スコア推定器も開発した。
提案手法は,中国北京で測定された大気汚染データを解析するためのものである。
論文 参考訳(メタデータ) (2021-07-15T14:51:39Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Convergence Rates of Stochastic Gradient Descent under Infinite Noise
Variance [14.06947898164194]
ヘビーテールは様々なシナリオで勾配降下 (sgd) で現れる。
SGDの収束保証は、潜在的に無限のばらつきを持つ状態依存性および重尾ノイズ下で提供します。
その結果,SGDは無限に分散した重尾雑音下であっても,地球最適値に収束できることが示された。
論文 参考訳(メタデータ) (2021-02-20T13:45:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。