論文の概要: Generalized Identifiability Bounds for Mixture Models with Grouped
Samples
- arxiv url: http://arxiv.org/abs/2207.11164v1
- Date: Fri, 22 Jul 2022 16:01:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 12:51:35.179725
- Title: Generalized Identifiability Bounds for Mixture Models with Grouped
Samples
- Title(参考訳): グループ標本混合モデルに対する一般化された識別可能性境界
- Authors: Robert A. Vandermeulen, Ren\'e Saitenmacher
- Abstract要約: 我々は、対応する下界と共に「決定性」と呼ばれるより強い形の識別可能性の類似した結果を証明する。
本稿では,多相混合モデルとトピックモデリングにおける結果の意味について述べる。
- 参考スコア(独自算出の注目度): 12.62724737436838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown that finite mixture models with $m$ components are
identifiable, while making no assumptions on the mixture components, so long as
one has access to groups of samples of size $2m-1$ which are known to come from
the same mixture component. In this work we generalize that result and show
that, if every subset of $k$ mixture components of a mixture model are linearly
independent, then that mixture model is identifiable with only $(2m-1)/(k-1)$
samples per group. We further show that this value cannot be improved. We prove
an analogous result for a stronger form of identifiability known as
"determinedness" along with a corresponding lower bound. This independence
assumption almost surely holds if mixture components are chosen randomly from a
$k$-dimensional space. We describe some implications of our results for
multinomial mixture models and topic modeling.
- Abstract(参考訳): 最近の研究は、$m$成分を持つ有限混合モデルが同定可能であることを示し、同じ混合成分から得られることが知られている2m-1$の大きさのサンプル群にアクセスできる限り、混合成分について仮定はしない。
この研究において、この結果を一般化し、混合モデルの$k$混合成分のすべての部分集合が線型独立であれば、混合モデルは群当たり$(2m-1)/(k-1)$サンプルで識別可能であることを示す。
さらに,この値は改善できないことを示す。
我々は、対応する下界とともに「決定性」として知られるより強固な形の識別可能性に対する類似の結果を証明する。
この独立性仮定は、混合成分が$k$次元空間からランダムに選択されるとほぼ確実に成り立つ。
本稿では,多項混合モデルと話題モデリングにおける結果の意義について述べる。
関連論文リスト
- Multi-Sample $\zeta$-mixup: Richer, More Realistic Synthetic Samples
from a $p$-Series Interpolant [16.65329510916639]
証明可能かつ明白に望ましい性質を持つ混合の一般化である$zeta$-mixupを提案する。
我々は,$zeta$-mixupの実装がミックスアップよりも高速であることを示し,制御された合成および24の実世界の自然・医療画像分類データセットにおいて,$zeta$-mixupがミックスアップおよび従来のデータ拡張技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T09:41:09Z) - Beyond Parallel Pancakes: Quasi-Polynomial Time Guarantees for
Non-Spherical Gaussian Mixtures [9.670578317106182]
kgeq 2$ Gaussian 成分と未知の手段と未知の共分散(すべての成分について同一視される)の混合を考える。
混合重量が指数関数的に小さい場合にのみこのような硬さが現れることを示す。
我々は,最小混合重量の時間準多項式を用いた2乗法に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-10T10:51:44Z) - Shared Independent Component Analysis for Multi-Subject Neuroimaging [107.29179765643042]
本稿では,ShICA (Shared Independent Component Analysis) を導入し,各ビューを加法ガウス雑音によって汚染された共有独立成分の線形変換としてモデル化する。
このモデルは、成分がガウス的でないか、あるいはノイズ分散に十分な多様性がある場合、同定可能であることを示す。
我々は,fMRIおよびMEGデータセットの実証的証拠として,ShICAが代替品よりも正確な成分推定を行うことを示す。
論文 参考訳(メタデータ) (2021-10-26T08:54:41Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Self-regularizing Property of Nonparametric Maximum Likelihood Estimator
in Mixture Models [39.27013036481509]
一般ガウス混合に対する非パラメトリック最大度(NPMLE)モデルを導入する。
サンプルサイズに基づくNPMLEは高い確率で$O(log n)$原子(質量点)を持つことを示す。
特に、任意の混合は、$Olog選択を持つ有限の混合から統計的に入っている。
論文 参考訳(メタデータ) (2020-08-19T03:39:13Z) - Consistent Estimation of Identifiable Nonparametric Mixture Models from
Grouped Observations [84.81435917024983]
この研究は、グループ化された観測から任意の同定可能な混合モデルを一貫して推定するアルゴリズムを提案する。
ペア化された観測のために実践的な実装が提供され、アプローチは既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-12T20:44:22Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - Outlier-Robust Clustering of Non-Spherical Mixtures [5.863264019032882]
統計的に分離されたd-次元ガウスアン(k-GMM)の混合をクラスタリングするための最初のアウトリー・ローバストアルゴリズムを与える。
この結果は、$d$次元単位球面上の均一分布の任意のアフィン変換のクラスタリング混合に拡張される。
論文 参考訳(メタデータ) (2020-05-06T17:24:27Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z) - Distributed, partially collapsed MCMC for Bayesian Nonparametrics [68.5279360794418]
ディリクレ法やベータ・ベルヌーリ法のようなモデルでよく用いられる完全無作為測度は独立な部分測度に分解可能であるという事実を利用する。
この分解を用いて、潜在測度を、インスタンス化された成分のみを含む有限測度と、他のすべての成分を含む無限測度に分割する。
得られたハイブリッドアルゴリズムは、収束保証を犠牲にすることなくスケーラブルな推論を可能にすることができる。
論文 参考訳(メタデータ) (2020-01-15T23:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。