論文の概要: Time-Uniform Confidence Spheres for Means of Random Vectors
- arxiv url: http://arxiv.org/abs/2311.08168v1
- Date: Tue, 14 Nov 2023 13:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 14:03:17.955174
- Title: Time-Uniform Confidence Spheres for Means of Random Vectors
- Title(参考訳): ランダムベクトルによる時間一様信頼球
- Authors: Ben Chugg, Hongjian Wang, Aaditya Ramdas
- Abstract要約: 我々は、時間一様信頼球-信頼球列 (CSS) を導出し、研究する
カトーニとジュリーニのオリジナルの研究に触発されて、我々はそれらの解析を統一して拡張し、シーケンシャルな設定の両方をカバーし、様々な分布的な仮定を扱うようにした。
- 参考スコア(独自算出の注目度): 31.921092049934654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We derive and study time-uniform confidence spheres - termed confidence
sphere sequences (CSSs) - which contain the mean of random vectors with high
probability simultaneously across all sample sizes. Inspired by the original
work of Catoni and Giulini, we unify and extend their analysis to cover both
the sequential setting and to handle a variety of distributional assumptions.
More concretely, our results include an empirical-Bernstein CSS for bounded
random vectors (resulting in a novel empirical-Bernstein confidence interval),
a CSS for sub-$\psi$ random vectors, and a CSS for heavy-tailed random vectors
based on a sequentially valid Catoni-Giulini estimator. Finally, we provide a
version of our empirical-Bernstein CSS that is robust to contamination by Huber
noise.
- Abstract(参考訳): 我々は,すべての試料サイズに対して高い確率のランダムベクトルの平均を含む,時間均一な信頼球列(CSS)を導出し,研究する。
カトーニとジュリーニのオリジナル作品に触発されて、それらの分析を統一して拡張し、シーケンシャルな設定と様々な分布的仮定の両方を扱います。
より具体的には、有界ランダムベクトルのための経験的ベルンシュタインcss(新しい経験的ベルンシュタイン信頼区間で推定される)、サブ-$\psi$ランダムベクトルのためのcss、シーケンシャルに有効なカトーニ・ジュリーニ推定子に基づく重み付きランダムベクトルのためのcssを含む。
最後に、Huberノイズによる汚染に対して堅牢な経験的Bernstein CSSのバージョンを提供する。
関連論文リスト
- SoS Certifiability of Subgaussian Distributions and its Algorithmic Applications [37.208622097149714]
すべての$d inmathbb N$に対して、すべての中心部分ガウス分布 $mathcal D$ on $mathbb Rd$, and every even $p inmathbb N$, $d-optimal inmathbb N$, $d-optimal inmathbb N$ が成り立つような普遍定数 $C>0$ が存在することを証明している。
これは、すべてのサブガウス分布がemphS-certifiably subgaussianであることを示す。
論文 参考訳(メタデータ) (2024-10-28T16:36:58Z) - Sliced Wasserstein with Random-Path Projecting Directions [49.802024788196434]
本稿では,モンテカルロ予想推定のための高速サンプリングを行う最適化自由スライシング分布を提案する。
我々はランダムパススライシング分布(RPSD)とスライスされたワッサースタインの2つの変種、すなわちランダムパススライシングワッサースタイン(RPSW)とIWRPSW(Importance Weighted Random-Path Projection Sliced Wasserstein)を導出する。
論文 参考訳(メタデータ) (2024-01-29T04:59:30Z) - Tester-Learners for Halfspaces: Universal Algorithms [13.13131953359806]
広範に構造化された分布に対して普遍的に成功するハーフ空間に対して、最初のテスタ・ラーナーを与える。
学習者はラベル付きディストリビューションでエラー$mathrmopt + epsilon$を達成します。
論文 参考訳(メタデータ) (2023-05-19T15:52:06Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Differentially-Private Bayes Consistency [70.92545332158217]
差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
論文 参考訳(メタデータ) (2022-12-08T11:57:30Z) - Variational Autoencoder Kernel Interpretation and Selection for
Classification [59.30734371401315]
本研究では,変分オートエンコーダの畳み込みエンコーダによって生成された特徴に基づく確率的分類器のカーネル選択手法を提案する。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
サンプル化された潜伏変数で関連する機能を選択することで、カーネルの選択を実行し、非形式的機能とカーネルをフィルタリングすることができる。
論文 参考訳(メタデータ) (2022-09-10T17:22:53Z) - Weighting and Pruning based Ensemble Deep Random Vector Functional Link
Network for Tabular Data Classification [3.1905745371064484]
本稿では,Ensemble Deep Random Vector Functional Link (edRVFL) の新たな変種を提案する。
EDRVFL (Weighting edRVFL) は、重み付け法を用いて、サンプルが前層で確実に分類された方法に応じて異なる重みのトレーニングサンプルを与えることにより、アンサンブルの多様性と精度を高める。
プルーニングベースのedRVFL(PedRVFL)も提案されている。我々は、次の隠れ層を生成する前に、分類の重要性に基づいて、いくつかの下位ニューロンをプルーニングする。
論文 参考訳(メタデータ) (2022-01-15T09:34:50Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - $\alpha$-Stable convergence of heavy-tailed infinitely-wide neural
networks [8.880921123362294]
無限幅多層パーセプトロン(MLP)は、標準フィードフォワードニューラルネットワークの限界である。
与えられた隠蔽層の全ノードにおけるプレアクティベーション値のベクトルは、その極限に収束することを示す。
論文 参考訳(メタデータ) (2021-06-18T01:36:41Z) - Convergence and Sample Complexity of SGD in GANs [15.25030172685628]
SGDによるGAN(Generative Adversarial Networks)のトレーニングにおける収束保証を提供する。
我々は,非線形アクティベーション機能を持つ1層ジェネレータネットワークによってモデル化されたターゲット分布の学習を検討する。
この結果は、ReLUを含む幅広い非線形アクティベーション関数 $phi$ に適用され、切り離された統計との接続によって実現される。
論文 参考訳(メタデータ) (2020-12-01T18:50:38Z) - Debiased Sinkhorn barycenters [110.79706180350507]
最適輸送(OT)におけるエントロピー正則化(Entropy regularization)は、機械学習におけるWassersteinメトリクスやバリセンタに対する近年の関心の原動力となっている。
このバイアスがエントロピー正則化器を定義する基準測度とどのように密接に関連しているかを示す。
両世界の長所を保ち、エントロピーを滑らかにしないシンクホーン様の高速な反復をデバイアスド・ワッサースタインのバリセンタとして提案する。
論文 参考訳(メタデータ) (2020-06-03T23:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。