論文の概要: A survey on Bayesian inference for Gaussian mixture model
- arxiv url: http://arxiv.org/abs/2108.11753v1
- Date: Fri, 20 Aug 2021 13:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 12:20:43.709535
- Title: A survey on Bayesian inference for Gaussian mixture model
- Title(参考訳): ガウス混合モデルのベイズ推定に関する調査
- Authors: Jun Lu
- Abstract要約: この調査の目的は、有限および無限ガウス混合モデルに対するベイズ推定における概念と数学的ツールを自己完結的に導入することである。
この控えめな背景以外は、開発は自己完結しており、厳密な証明が提供される。
- 参考スコア(独自算出の注目度): 3.109306676759862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering has become a core technology in machine learning, largely due to
its application in the field of unsupervised learning, clustering,
classification, and density estimation. A frequentist approach exists to hand
clustering based on mixture model which is known as the EM algorithm where the
parameters of the mixture model are usually estimated into a maximum likelihood
estimation framework. Bayesian approach for finite and infinite Gaussian
mixture model generates point estimates for all variables as well as associated
uncertainty in the form of the whole estimates' posterior distribution.
The sole aim of this survey is to give a self-contained introduction to
concepts and mathematical tools in Bayesian inference for finite and infinite
Gaussian mixture model in order to seamlessly introduce their applications in
subsequent sections. However, we clearly realize our inability to cover all the
useful and interesting results concerning this field and given the paucity of
scope to present this discussion, e.g., the separated analysis of the
generation of Dirichlet samples by stick-breaking and Polya's Urn approaches.
We refer the reader to literature in the field of the Dirichlet process mixture
model for a much detailed introduction to the related fields. Some excellent
examples include (Frigyik et al., 2010; Murphy, 2012; Gelman et al., 2014;
Hoff, 2009).
This survey is primarily a summary of purpose, significance of important
background and techniques for Gaussian mixture model, e.g., Dirichlet prior,
Chinese restaurant process, and most importantly the origin and complexity of
the methods which shed light on their modern applications. The mathematical
prerequisite is a first course in probability. Other than this modest
background, the development is self-contained, with rigorous proofs provided
throughout.
- Abstract(参考訳): クラスタリングは、主に教師なし学習、クラスタリング、分類、密度推定の分野への応用によって、機械学習のコア技術となっている。
emアルゴリズムとして知られる混合モデルに基づく手のクラスタリングには、通常、混合モデルのパラメータを最大確率推定フレームワークに推定する、頻繁なアプローチが存在する。
有限かつ無限ガウス混合モデルに対するベイズ的アプローチは、すべての変数に対する点推定と関連する不確かさを全推定の後方分布の形で生成する。
この調査の唯一の目的は、後のセクションでそれらの応用をシームレスに導入するために、有限かつ無限のガウス混合モデルに対するベイズ推定における概念と数学的ツールを自己完結的に導入することである。
しかし,この分野に関する有用かつ興味深い結果をすべてカバーできないことを明確に認識し,この議論を行うためのスコープのpaucity,例えばスティックブレーキングとポリアのurnアプローチによるディリクレ試料生成の分離分析を想定した。
本稿では,dirichletプロセス混合モデルの分野における文献について,関連分野のより詳細な紹介を行う。
優れた例としては(Frigyik et al., 2010; Murphy, 2012; Gelman et al., 2014; Hoff, 2009)がある。
この調査は、主にガウス混合モデル(例えば、ディリクレ・プリア、中華料理のプロセス)の目的、重要背景およびテクニックの要約であり、最も重要なのは、現代の応用に光を当てた手法の起源と複雑さである。
数学的前提条件は確率の最初のコースである。
この控えめな背景以外は、開発は自己完結しており、厳密な証明が提供される。
関連論文リスト
- von Mises Quasi-Processes for Bayesian Circular Regression [57.88921637944379]
円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
結果の確率モデルは、統計物理学における連続スピンモデルと関係を持つ。
後続推論のために、高速マルコフ連鎖モンテカルロサンプリングに寄与するストラトノビッチのような拡張を導入する。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Conformal inference for regression on Riemannian Manifolds [49.7719149179179]
回帰シナリオの予測セットは、応答変数が$Y$で、多様体に存在し、Xで表される共変数がユークリッド空間にあるときに検討する。
我々は、多様体上のこれらの領域の経験的バージョンが、その集団に対するほぼ確実に収束していることを証明する。
論文 参考訳(メタデータ) (2023-10-12T10:56:25Z) - Bregman Power k-Means for Clustering Exponential Family Data [11.434503492579477]
我々は、ブレグマン発散の下でのハードクラスタリングに関する古典的な研究のアルゴリズム的進歩を橋渡しする。
ブレグマン発散のエレガントな性質は、単純で透明なアルゴリズムで閉形式更新を維持できる。
シミュレーション実験の徹底的な実証分析と降雨データに関するケーススタディを考察し,提案手法はガウス以外の様々なデータ設定において,既存のピア手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2022-06-22T06:09:54Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Probabilistic Mass Mapping with Neural Score Estimation [4.079848600120986]
弱レンズ質量マッピング問題の高次元ベイズ後方の効率的なサンプリング法を提案する。
本手法の精度をシミュレーションで実証し,HST/ACS COSMOSフィールドの大量再構成に適用する。
論文 参考訳(メタデータ) (2022-01-14T17:07:48Z) - A Riemannian Newton Trust-Region Method for Fitting Gaussian Mixture
Models [0.0]
ガウス混合モデルのためのリーマン・ヘッシアンの式を紹介します。
さらに、実行時とイテレーション数の両方で現在のアプローチを上回る新しいNewton Trust-Regionメソッドを提案します。
論文 参考訳(メタデータ) (2021-04-30T12:48:32Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z) - Mean-Field Approximation to Gaussian-Softmax Integral with Application
to Uncertainty Estimation [23.38076756988258]
ディープニューラルネットワークにおける不確実性を定量化するための,新しい単一モデルに基づくアプローチを提案する。
平均場近似式を用いて解析的に難解な積分を計算する。
実験的に,提案手法は最先端の手法と比較して競合的に機能する。
論文 参考訳(メタデータ) (2020-06-13T07:32:38Z) - Nearest Neighbor Dirichlet Mixtures [3.3194866396158]
計算上の欠点を伴わずにベイズ的アプローチの強みのほとんどを維持するために、近傍のディリクレ混合のクラスを提案する。
単純で恥ずかしい並列なモンテカルロアルゴリズムが提案され、結果の擬似ポストから未知の密度をサンプリングする。
論文 参考訳(メタデータ) (2020-03-17T21:39:11Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。