論文の概要: Anytime-valid t-tests and confidence sequences for Gaussian means with
unknown variance
- arxiv url: http://arxiv.org/abs/2310.03722v2
- Date: Sat, 7 Oct 2023 18:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 19:34:20.209813
- Title: Anytime-valid t-tests and confidence sequences for Gaussian means with
unknown variance
- Title(参考訳): 未知分散を持つガウス平均の任意の時価t検定と信頼度列
- Authors: Hongjian Wang and Aaditya Ramdas
- Abstract要約: 我々は、同じ設定で2つの新しいE-プロセスと信頼性シーケンスを開発する。
一つは除去された濾過における試験マーチンゲールであり、もう一つは標準データ濾過における電子プロセスである。
得られた信頼シーケンスの幅を解析し、誤差確率$alpha$に好奇性を持つ。
- 参考スコア(独自算出の注目度): 35.61651875507142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In 1976, Lai constructed a nontrivial confidence sequence for the mean $\mu$
of a Gaussian distribution with unknown variance $\sigma$. Curiously, he
employed both an improper (right Haar) mixture over $\sigma$ and an improper
(flat) mixture over $\mu$. Here, we elaborate carefully on the details of his
construction, which use generalized nonintegrable martingales and an extended
Ville's inequality. While this does yield a sequential t-test, it does not
yield an ``e-process'' (due to the nonintegrability of his martingale). In this
paper, we develop two new e-processes and confidence sequences for the same
setting: one is a test martingale in a reduced filtration, while the other is
an e-process in the canonical data filtration. These are respectively obtained
by swapping Lai's flat mixture for a Gaussian mixture, and swapping the right
Haar mixture over $\sigma$ with the maximum likelihood estimate under the null,
as done in universal inference. We also analyze the width of resulting
confidence sequences, which have a curious dependence on the error probability
$\alpha$. Numerical experiments are provided along the way to compare and
contrast the various approaches.
- Abstract(参考訳): 1976年、ライは、未知分散 $\sigma$ を持つガウス分布の平均 $\mu$ に対する非自明な信頼列を構築した。
奇妙なことに、彼は$\sigma$以上の不適切な(右ハール)混合物と$\mu$以上の不適切な(フラット)混合物の両方を使用した。
ここでは、一般化された非可積分なマルティンゲールと拡張されたヴィルの不等式を用いる彼の構成の詳細を詳しく述べる。
これはシーケンシャルなt-テストをもたらすが、'e-process'(マルティンゲールの非可積分性のため)は得られない。
本稿では,同一設定のe-プロセスと信頼度シーケンスを2つ開発した。1つは縮小濾過におけるテストマルティンゲール,もう1つは標準データ濾過におけるe-プロセスである。
これらはそれぞれ、lai の平坦混合物をガウス混合物に交換し、右ハール混合物を $\sigma$ でヌルの最大推定値に置き換えることで得られる。
また、エラー確率$\alpha$に興味深い依存があるような、結果の信頼シーケンスの幅も分析する。
数値実験は、様々なアプローチを比較し、対比する過程で提供される。
関連論文リスト
- Nonlinear Stochastic Gradient Descent and Heavy-tailed Noise: A Unified Framework and High-probability Guarantees [56.80920351680438]
本研究では,重音の存在下でのオンライン学習における高確率収束について検討する。
切断のみを考慮し、有界な$p$-thモーメントでノイズを必要とする最先端技術と比較して、幅広い非線形性の保証を提供する。
論文 参考訳(メタデータ) (2024-10-17T18:25:28Z) - Learning general Gaussian mixtures with efficient score matching [16.06356123715737]
我々は、$d$次元で$k$ガウシアンの混合を学習する問題を研究する。
我々は、下層の混合成分について分離を前提としない。
我々は、ターゲット混合物から$dmathrmpoly(k/varepsilon)$サンプルを抽出し、サンプル-ポリノミカル時間で実行し、サンプリング器を構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-29T17:30:36Z) - Gaussian-Smoothed Sliced Probability Divergences [15.123608776470077]
滑らか化とスライシングが計量特性と弱位相を保存することを示す。
また、滑らかなパラメータに関して異なる発散の連続性を含む他の性質も導出する。
論文 参考訳(メタデータ) (2024-04-04T07:55:46Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z) - Covariance-Aware Private Mean Estimation Without Private Covariance Estimation [10.036088581191592]
2つのサンプル係数差分プライベート平均推定器を$d$-dimensional(sub)Gaussian分布に対して提案する。
我々の推定子は、$| tildemu - mu |_Sigma leq alpha$, where $| cdot |_Sigma$がマハラノビス距離であるような$tildemu$を出力します。
論文 参考訳(メタデータ) (2021-06-24T21:40:07Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z) - Optimal Sub-Gaussian Mean Estimation in $\mathbb{R}$ [5.457150493905064]
ガウス下収束を考慮した新しい推定器を提案する。
我々の推定器はその分散に関する事前の知識を必要としない。
我々の推定器の構成と分析は、他の問題に一般化可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-11-17T02:47:24Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。