論文の概要: Learning Entangled Single-Sample Gaussians in the Subset-of-Signals
Model
- arxiv url: http://arxiv.org/abs/2007.05557v1
- Date: Fri, 10 Jul 2020 18:25:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:42:06.082355
- Title: Learning Entangled Single-Sample Gaussians in the Subset-of-Signals
Model
- Title(参考訳): サブセット・オブ・シグナーズモデルにおける絡み合った単一サンプルガウスの学習
- Authors: Yingyu Liang and Hui Yuan
- Abstract要約: 本研究は, 共通平均と異なる未知の分散を持つ絡み合った単一サンプルガウスの平均推定について検討する。
誤差が$O left(fracsqrtnln nmright)$m=Omega(sqrtnlnn)$の場合に高い確率でエラーを発生させることを示す。
さらに下限を証明し、エラーが$Omegaleft(left(fracnm4right)1/6right)$であることを示す。
- 参考スコア(独自算出の注目度): 28.839136703139225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the setting of entangled single-sample distributions, the goal is to
estimate some common parameter shared by a family of $n$ distributions, given
one single sample from each distribution. This paper studies mean estimation
for entangled single-sample Gaussians that have a common mean but different
unknown variances. We propose the subset-of-signals model where an unknown
subset of $m$ variances are bounded by 1 while there are no assumptions on the
other variances. In this model, we analyze a simple and natural method based on
iteratively averaging the truncated samples, and show that the method achieves
error $O \left(\frac{\sqrt{n\ln n}}{m}\right)$ with high probability when
$m=\Omega(\sqrt{n\ln n})$, matching existing bounds for this range of $m$. We
further prove lower bounds, showing that the error is
$\Omega\left(\left(\frac{n}{m^4}\right)^{1/2}\right)$ when $m$ is between
$\Omega(\ln n)$ and $O(n^{1/4})$, and the error is
$\Omega\left(\left(\frac{n}{m^4}\right)^{1/6}\right)$ when $m$ is between
$\Omega(n^{1/4})$ and $O(n^{1 - \epsilon})$ for an arbitrarily small
$\epsilon>0$, improving existing lower bounds and extending to a wider range of
$m$.
- Abstract(参考訳): 絡み合った単一サンプル分布の設定では、各分布から1つのサンプルが与えられたとき、$n$分布の族によって共有される共通のパラメータを推定することが目的である。
本研究は,共通平均の異なる未知の分散を持つ絡み合った単一サンプルガウスの推定について述べる。
我々は、$m$分散の未知の部分集合が 1 で有界であるが、他の分散に対する仮定がないような信号の部分集合モデルを提案する。
このモデルでは、切断されたサンプルを反復的に平均化することで、単純で自然な手法を解析し、m=\omega(\sqrt{n\ln n})$ で高い確率でエラー $o \left(\frac{\sqrt{n\ln n}}{m}\right) を達成し、この範囲の$m$ に対して既存の境界と一致することを示す。
我々はさらに、エラーが$\omega\left(\left(\frac{n}{m^4}\right)^{1/2}\right)$ m$が$\omega(\ln n)$と$o(n^{1/4})$の間であるとき、エラーが$\omega\left(\left(\frac{n}{m^4}\right)^{1/6}\right)$$ m$が$\omega(n^{1/4})$と$o(n^{1 - \epsilon})$であるときに、$m$が$\omega(n^{1/4})$と$o(n^{1 - \epsilon})$であることを示す。
関連論文リスト
- Dimension-free Private Mean Estimation for Anisotropic Distributions [55.86374912608193]
以前の$mathRd上の分布に関する民間推定者は、次元性の呪いに苦しむ。
本稿では,サンプルの複雑さが次元依存性を改善したアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-01T17:59:53Z) - Simple and Nearly-Optimal Sampling for Rank-1 Tensor Completion via Gauss-Jordan [49.1574468325115]
ランク1テンソルを$otimes_i=1N mathbbRd$で完了する際のサンプルと計算複雑性を再考する。
本稿では,一対のランダム線形系上で,ガウス・ヨルダンに相当するアルゴリズムを許容する問題のキャラクタリゼーションを提案する。
論文 参考訳(メタデータ) (2024-08-10T04:26:19Z) - Minimax Optimality of Score-based Diffusion Models: Beyond the Density Lower Bound Assumptions [11.222970035173372]
カーネルベースのスコア推定器は$widetildeOleft(n-1 t-fracd+22(tfracd2 vee 1)rightの最適平均二乗誤差を達成する
核を用いたスコア推定器は,拡散モデルで生成した試料の分布の総変動誤差に対して,極小ガウスの下での最大平均2乗誤差を$widetildeOleft(n-1/2 t-fracd4right)$上界で達成することを示す。
論文 参考訳(メタデータ) (2024-02-23T20:51:31Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - $L^1$ Estimation: On the Optimality of Linear Estimators [64.76492306585168]
この研究は、条件中央値の線型性を誘導する$X$上の唯一の先行分布がガウス分布であることを示している。
特に、条件分布 $P_X|Y=y$ がすべての$y$に対して対称であるなら、$X$ はガウス分布に従う必要がある。
論文 参考訳(メタデータ) (2023-09-17T01:45:13Z) - Fast, Sample-Efficient, Affine-Invariant Private Mean and Covariance
Estimation for Subgaussian Distributions [8.40077201352607]
我々は,高次元共分散認識平均推定のための高速,微分プライベートなアルゴリズムを提案する。
我々のアルゴリズムは$tildemu$を生成し、$|mu|_Sigma leq alpha$が$n gtrsim tfrac d alpha2 + tfracd sqrtlog 1/deltaalpha varepsilon+fracdlog 1/deltavarepsilon$である。
論文 参考訳(メタデータ) (2023-01-28T16:57:46Z) - Structure Learning in Graphical Models from Indirect Observations [17.521712510832558]
本稿では、パラメータ法と非パラメトリック法の両方を用いて、Rp$における$p$次元ランダムベクトル$Xのグラフィカル構造を学習する。
温和な条件下では、グラフ構造推定器が正しい構造を得ることができることを示す。
論文 参考訳(メタデータ) (2022-05-06T19:24:44Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z) - Sparse sketches with small inversion bias [79.77110958547695]
逆バイアスは、逆の共分散に依存する量の推定を平均化するときに生じる。
本研究では、確率行列に対する$(epsilon,delta)$-unbiased estimatorという概念に基づいて、逆バイアスを解析するためのフレームワークを開発する。
スケッチ行列 $S$ が密度が高く、すなわちサブガウスのエントリを持つとき、$(epsilon,delta)$-unbiased for $(Atop A)-1$ は $m=O(d+sqrt d/ のスケッチを持つ。
論文 参考訳(メタデータ) (2020-11-21T01:33:15Z) - Multivariate mean estimation with direction-dependent accuracy [8.147652597876862]
独立な同一分布観測に基づくランダムベクトルの平均を推定する問題を考察する。
確率ベクトルの1次元辺の分散があまり小さくない全ての方向において、ほぼ最適誤差を持つ推定器を証明した。
論文 参考訳(メタデータ) (2020-10-22T17:52:45Z) - Efficient Statistics for Sparse Graphical Models from Truncated Samples [19.205541380535397]
i) スパースガウス図形モデルの推論と (ii) スパース線形モデルの回復支援の2つの基本的問題と古典的問題に焦点をあてる。
疎線型回帰については、$(bf x,y)$ が生成されるが、$y = bf xtopOmega* + MathcalN(0,1)$ と $(bf x, y)$ は、truncation set $S subseteq mathbbRd$ に属する場合にのみ見られる。
論文 参考訳(メタデータ) (2020-06-17T09:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。