論文の概要: Clustering of non-Gaussian data by variational Bayes for normal inverse
Gaussian mixture models
- arxiv url: http://arxiv.org/abs/2009.06002v1
- Date: Sun, 13 Sep 2020 14:13:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 02:40:20.792488
- Title: Clustering of non-Gaussian data by variational Bayes for normal inverse
Gaussian mixture models
- Title(参考訳): 正規逆ガウス混合モデルに対する変分ベイズによる非ガウスデータのクラスタリング
- Authors: Takashi Takekawa
- Abstract要約: 実際の状況では、重い尾を持つ非ガウス的データや非対称なデータが多く存在する。
NIG混合モデルでは、期待最大化法と変分ベイズアルゴリズムの両方が提案されている。
NIG混合のための別のVBアルゴリズムを提案し、欠点を改善する。
また,クラスタ数決定の難しさを克服するため,ディリクレプロセス混合モデルの拡張も提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finite mixture models, typically Gaussian mixtures, are well known and widely
used as model-based clustering. In practical situations, there are many
non-Gaussian data that are heavy-tailed and/or asymmetric. Normal inverse
Gaussian (NIG) distributions are normal-variance mean which mixing densities
are inverse Gaussian distributions and can be used for both haavy-tail and
asymmetry. For NIG mixture models, both expectation-maximization method and
variational Bayesian (VB) algorithms have been proposed. However, the existing
VB algorithm for NIG mixture have a disadvantage that the shape of the mixing
density is limited. In this paper, we propose another VB algorithm for NIG
mixture that improves on the shortcomings. We also propose an extension of
Dirichlet process mixture models to overcome the difficulty in determining the
number of clusters in finite mixture models. We evaluated the performance with
artificial data and found that it outperformed Gaussian mixtures and existing
implementations for NIG mixtures, especially for highly non-normative data.
- Abstract(参考訳): 有限混合モデルは典型的にはガウス混合であり、モデルベースのクラスタリングとして広く知られている。
現実の状況では、重い尾と非対称な非ガウスデータが多く存在する。
正規逆ガウス分布 (NIG) は正規分散平均であり、密度の混合は逆ガウス分布であり、ハービーテールと非対称性の両方に使用できる。
NIG混合モデルでは、期待最大化法と変分ベイズアルゴリズムの両方が提案されている。
しかし, NIG混合に対する既存のVBアルゴリズムでは, 混合密度が制限されているという欠点がある。
本稿では,NIG混合に対する新たなVBアルゴリズムを提案する。
また,有限混合モデルにおけるクラスタ数決定の難しさを克服するために,dirichletプロセス混合モデルの拡張を提案する。
人工データを用いて性能を評価し,特に非ノルミティブデータにおいてガウス混合系や既存のニグ混合系の実装を上回った。
関連論文リスト
- The Breakdown of Gaussian Universality in Classification of High-dimensional Mixtures [6.863637695977277]
一般的な混合データ環境下での分類における経験的リスク最小化の高次元的特徴について述べる。
ガウス普遍性の条件を定義し、損失関数の選択に対するそれらの意味について議論する。
論文 参考訳(メタデータ) (2024-10-08T01:45:37Z) - Adaptive Fuzzy C-Means with Graph Embedding [84.47075244116782]
ファジィクラスタリングアルゴリズムは、大まかに2つの主要なグループに分類できる: ファジィC平均法(FCM)と混合モデルに基づく方法。
本稿では,FCMを用いたクラスタリングモデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T08:15:50Z) - Universal Lower Bounds and Optimal Rates: Achieving Minimax Clustering Error in Sub-Exponential Mixture Models [8.097200145973389]
まず、混合モデルのクラスタリングにおける誤差率の普遍的な下限を確立する。
次に、この下界をサブ指数尾を持つ混合モデルで再現的アルゴリズムが達成できることを実証する。
ポアソンまたは負二項混合によりモデル化されたデータセットについて,指数族に属する混合モデルについて検討した。
このような混合では、ブロッグマンの発散を利用したロイドのアルゴリズムの変種であるブロッグマンのハードクラスタリングが最適であることを示す。
論文 参考訳(メタデータ) (2024-02-23T16:51:17Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Gaussian Mixture Convolution Networks [13.493166990188278]
本稿では,多次元ガウス混合の解析的畳み込みに基づく新しい深層学習法を提案する。
このアーキテクチャに基づくネットワークは,MNIST と ModelNet のデータセットに適合したガウス混合の競合精度に達することを示す。
論文 参考訳(メタデータ) (2022-02-18T12:07:52Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Gaussian Mixture Reduction with Composite Transportation Divergence [15.687740538194413]
複合輸送分散(CTD)に基づく新しい最適化型GMR法を提案する。
我々は,還元混合物を計算し,その理論的収束を確立するための最大化最小化アルゴリズムを開発した。
統合されたフレームワークにより、CTDの最も適切なコスト関数を選択して、優れたパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2020-02-19T19:52:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。