論文の概要: On Learning Mixture Models with Sparse Parameters
- arxiv url: http://arxiv.org/abs/2202.11940v1
- Date: Thu, 24 Feb 2022 07:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:36:09.985006
- Title: On Learning Mixture Models with Sparse Parameters
- Title(参考訳): スパースパラメータを持つ混合モデルの学習について
- Authors: Arya Mazumdar, Soumyabrata Pal
- Abstract要約: 本研究では, 高次元スパルス潜時パラメータベクトルの混合について検討し, これらのベクトルの回復支援問題について考察する。
潜伏空間の次元に対数的サンプル複雑性が依存する回復支援のための効率的なアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 44.3425205248937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixture models are widely used to fit complex and multimodal datasets. In
this paper we study mixtures with high dimensional sparse latent parameter
vectors and consider the problem of support recovery of those vectors. While
parameter learning in mixture models is well-studied, the sparsity constraint
remains relatively unexplored. Sparsity of parameter vectors is a natural
constraint in variety of settings, and support recovery is a major step towards
parameter estimation. We provide efficient algorithms for support recovery that
have a logarithmic sample complexity dependence on the dimensionality of the
latent space. Our algorithms are quite general, namely they are applicable to
1) mixtures of many different canonical distributions including Uniform,
Poisson, Laplace, Gaussians, etc. 2) Mixtures of linear regressions and linear
classifiers with Gaussian covariates under different assumptions on the unknown
parameters. In most of these settings, our results are the first guarantees on
the problem while in the rest, our results provide improvements on existing
works.
- Abstract(参考訳): 混合モデルは、複雑でマルチモーダルなデータセットに適合するために広く使われている。
本稿では, 高次元スパース潜時パラメータベクトルとの混合について検討し, それらのベクトルに対する支持回復の問題について考察する。
混合モデルにおけるパラメータ学習はよく研究されているが、スパーシティ制約は比較的未解明のままである。
パラメータベクトルの分散は様々な設定において自然な制約であり、パラメータ推定へのサポートリカバリは大きなステップである。
潜伏空間の次元に対数的サンプル複雑性が依存する回復支援のための効率的なアルゴリズムを提供する。
私たちのアルゴリズムは非常に一般的なもので
1) 均一性, ポアソン性, ラプラス性, ガウス性など多種多様な標準分布の混合物
2) 未知パラメータに対する異なる仮定の下で, 線形回帰とガウス共変量との混合化。
これらの設定のほとんどでは、結果が問題に関する最初の保証であり、残りの部分では、既存の作業の改善を提供します。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Robust scalable initialization for Bayesian variational inference with
multi-modal Laplace approximations [0.0]
フル共分散構造を持つ変分混合は、パラメータ数による変動パラメータによる二次的な成長に苦しむ。
本稿では,変分推論のウォームスタートに使用できる初期ガウスモデル近似を構築する方法を提案する。
論文 参考訳(メタデータ) (2023-07-12T19:30:04Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Convex Latent Effect Logit Model via Sparse and Low-rank Decomposition [2.1915057426589746]
本稿では,ロジスティック回帰モデル(logit)を学習するための凸パラメトリック凸パラメトリック定式化を提案する。
その人気にもかかわらず、個別の不均一性を学ぶための混合ロジットアプローチにはいくつかの欠点がある。
論文 参考訳(メタデータ) (2021-08-22T22:23:39Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Fair Sparse Regression with Clustering: An Invex Relaxation for a
Combinatorial Problem [32.18449686637963]
我々のモデルにデバイアス/フェアネス制約を組み込むことは、性能に悪影響を及ぼさないことを示す。
また,各サンプルの隠れ属性の正確な値を復元することで,クラスタリング問題を解決する。
論文 参考訳(メタデータ) (2021-02-19T01:46:34Z) - Bayesian multiscale deep generative model for the solution of
high-dimensional inverse problems [0.0]
深層確率的生成モデルに基づく新しいマルチスケールベイズ推論手法が導入された。
この方法は、安定性、効率、精度を示しながら、高次元パラメータ推定を可能にする。
論文 参考訳(メタデータ) (2021-02-04T11:47:21Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。