論文の概要: Beyond Black Box Densities: Parameter Learning for the Deviated
Components
- arxiv url: http://arxiv.org/abs/2202.02651v1
- Date: Sat, 5 Feb 2022 22:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:39:24.224390
- Title: Beyond Black Box Densities: Parameter Learning for the Deviated
Components
- Title(参考訳): ブラックボックス密度を超えて:逸脱したコンポーネントのパラメータ学習
- Authors: Dat Do and Nhat Ho and XuanLong Nguyen
- Abstract要約: 既知の密度関数の推定は、以前はブラックボックス法によって得られていた可能性がある。
データセットの複雑さが増大すると、既知の推定値から混合分布によって真の密度が逸脱する可能性がある。
我々はワッサーシュタイン計量の下で、最大推定値$lambda*$と$G*$の収束率を確立する。
- 参考スコア(独自算出の注目度): 15.501680326749515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As we collect additional samples from a data population for which a known
density function estimate may have been previously obtained by a black box
method, the increased complexity of the data set may result in the true density
being deviated from the known estimate by a mixture distribution. To model this
phenomenon, we consider the \emph{deviating mixture model} $(1-\lambda^{*})h_0
+ \lambda^{*} (\sum_{i = 1}^{k} p_{i}^{*} f(x|\theta_{i}^{*}))$, where $h_0$ is
a known density function, while the deviated proportion $\lambda^{*}$ and
latent mixing measure $G_{*} = \sum_{i = 1}^{k} p_{i}^{*}
\delta_{\theta_i^{*}}$ associated with the mixture distribution are unknown.
Via a novel notion of distinguishability between the known density $h_{0}$ and
the deviated mixture distribution, we establish rates of convergence for the
maximum likelihood estimates of $\lambda^{*}$ and $G^{*}$ under Wasserstein
metric. Simulation studies are carried out to illustrate the theory.
- Abstract(参考訳): 既知密度関数推定が以前にブラックボックス法で得られていた可能性があるデータ集団から追加のサンプルを集めると、データセットの複雑さが増大すると、既知推定値から混合分布によって真の密度が逸脱する可能性がある。
この現象をモデル化するために、 \emph{deviating mix model} $(1-\lambda^{*})h_0 + \lambda^{*} (\sum_{i = 1}^{k} p_{i}^{*} f(x|\theta_{i}^{*})$, where $h_0$ is a known density function, while the deviated proportion $\lambda^{*}$ and latent mix measure $G_{*} = \sum_{i = 1}^{k} p_{i}^{*} \delta_{\theta_i^{*}}$.} ここで、混合分布に付随する可逆混合度は未知である。
既知の密度 $h_{0}$ と逸脱混合分布の区別可能性の新しい概念により、ワッサーシュタイン計量の下での最大確率推定値 $\lambda^{*}$ と $g^{*}$ の収束率を確立する。
その理論を説明するためにシミュレーション研究が行われた。
関連論文リスト
- On Parameter Estimation in Deviated Gaussian Mixture of Experts [37.439768024583955]
本稿では, ガウス混合系のパラメータ推定問題について考察する。
データは$g_0(Y|X)$(null仮説)から生成されるか、あるいはその混合物全体から生成される。
我々は,最大推定値の収束率を捉えるために,新しいボロノイ型損失関数を構築した。
論文 参考訳(メタデータ) (2024-02-07T19:52:35Z) - The Sketched Wasserstein Distance for mixture distributions [13.643197515573029]
スケッチド・ワッサースタイン距離(英: Sketched Wasserstein Distance)(WS$)は、有限混合分布に特化された新しい確率距離である。
我々は、$WS$が、$mathcalS = textrmconv(mathcalA)$ の要素の混合の空間に最も区別できるものとして定義されることを示す。
論文 参考訳(メタデータ) (2022-06-26T02:33:40Z) - Random quantum circuits transform local noise into global white noise [118.18170052022323]
低忠実度状態におけるノイズランダム量子回路の測定結果の分布について検討する。
十分に弱くユニタリな局所雑音に対して、一般的なノイズ回路インスタンスの出力分布$p_textnoisy$間の相関(線形クロスエントロピーベンチマークで測定)は指数関数的に減少する。
ノイズが不整合であれば、出力分布は、正確に同じ速度で均一分布の$p_textunif$に近づく。
論文 参考訳(メタデータ) (2021-11-29T19:26:28Z) - Consistent Density Estimation Under Discrete Mixture Models [20.935152220339056]
この研究は、離散混合モデルの設定において混合確率密度$f$を推定する問題を考える。
特に、すべての密度 $f$ $lim_nto infty mathbbE left[ int |f_n -f | right]=0$ の推定子 $f_n$ が存在することが示されている。
論文 参考訳(メタデータ) (2021-05-03T18:30:02Z) - Rates of convergence for density estimation with generative adversarial
networks [19.71040653379663]
我々は、基礎となる密度$mathsfp*$とGAN推定値の間のJensen-Shannon (JS) 分岐に対するオラクルの不等式を証明した。
GANの推定値と$mathsfp*$のJS偏差が$(logn/n)2beta/ (2beta + d)$の速さで崩壊することを示す。
論文 参考訳(メタデータ) (2021-01-30T09:59:14Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z) - Analysis of KNN Density Estimation [56.29748742084386]
kNN密度推定は、サポートセットが知られている場合、$ell_infty$と$ell_infty$の条件の両方で最小限最適である。
$ell_infty$エラーはミニマックス下限に到達しないが、カーネル密度推定よりは優れている。
論文 参考訳(メタデータ) (2020-09-30T03:33:17Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - Optimal estimation of high-dimensional location Gaussian mixtures [6.947889260024788]
ワッサーシュタイン距離における混合分布を推定する最小値の値は$Theta((d/n)1/4 + n-1/(4k-2))$である。
また,混合密度はヘリンジャー距離の最適パラメトリックレート$Theta(sqrtd/n)$で推定可能であることを示す。
論文 参考訳(メタデータ) (2020-02-14T00:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。