論文の概要: Flexible Bivariate Beta Mixture Model: A Probabilistic Approach for Clustering Complex Data Structures
- arxiv url: http://arxiv.org/abs/2502.19938v1
- Date: Thu, 27 Feb 2025 10:07:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:58:37.173564
- Title: Flexible Bivariate Beta Mixture Model: A Probabilistic Approach for Clustering Complex Data Structures
- Title(参考訳): 柔軟な二変量ベータ混合モデル:複雑なデータ構造をクラスタリングするための確率論的アプローチ
- Authors: Yung-Peng Hsu, Hung-Hsuan Chen,
- Abstract要約: クラスタリングは分析と機械学習に不可欠である。
k$meansやGaussian Mixture Models (GMM)といった従来のアルゴリズムは、非データで失敗することが多い。
実験コードはhttps://github.com/MB-and-yungpeng/MM-and-FBBMMで公開します。
- 参考スコア(独自算出の注目度): 2.07180164747172
- License:
- Abstract: Clustering is essential in data analysis and machine learning, but traditional algorithms like $k$-means and Gaussian Mixture Models (GMM) often fail with nonconvex clusters. To address the challenge, we introduce the Flexible Bivariate Beta Mixture Model (FBBMM), which utilizes the flexibility of the bivariate beta distribution to handle diverse and irregular cluster shapes. Using the Expectation Maximization (EM) algorithm and Sequential Least Squares Programming (SLSQP) optimizer for parameter estimation, we validate FBBMM on synthetic and real-world datasets, demonstrating its superior performance in clustering complex data structures, offering a robust solution for big data analytics across various domains. We release the experimental code at https://github.com/yung-peng/MBMM-and-FBBMM.
- Abstract(参考訳): データ分析や機械学習にはクラスタリングが不可欠だが、$k$-meansやGaussian Mixture Models(GMM)といった従来のアルゴリズムは、非凸クラスタでは失敗することが多い。
この課題に対処するために、多様なクラスタ形状と不規則なクラスタ形状を扱うために、二変量ベータ分布の柔軟性を利用するフレキシブル二変量ベータ混合モデル(FBBMM)を導入する。
予測最大化(EM)アルゴリズムとSLSQP(Sequential Least Squares Programming)オプティマイザを用いて,FBBMMを合成および実世界のデータセット上で検証し,複雑なデータ構造のクラスタリングにおいて優れた性能を示し,さまざまな領域にわたるビッグデータ分析のための堅牢なソリューションを提供する。
実験コードはhttps://github.com/yung-peng/MBMM-and-FBBMMで公開します。
関連論文リスト
- FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Multivariate Beta Mixture Model: Probabilistic Clustering With Flexible
Cluster Shapes [2.44755919161855]
ソフトクラスタリングのための新しい確率モデルである多変量ベータ混合モデル(MBMM)を導入する。
MBMMは、合成および実データに多様なクラスタ形状に適合することを示す。
論文 参考訳(メタデータ) (2024-01-30T03:12:19Z) - Finite Mixtures of Multivariate Poisson-Log Normal Factor Analyzers for
Clustering Count Data [0.8499685241219366]
因子分析モデルの混合に基づく8種類の擬似混合モデルについて紹介する。
提案モデルはRNAシークエンシング研究から得られた離散的なデータをクラスタリングする文脈において探索される。
論文 参考訳(メタデータ) (2023-11-13T21:23:15Z) - A distribution-free mixed-integer optimization approach to hierarchical modelling of clustered and longitudinal data [0.0]
我々は,新しいデータポイントに対するクラスタ効果を評価する革新的なアルゴリズムを導入し,このモデルのロバスト性や精度を高める。
このアプローチの推論的および予測的効果は、学生のスコアリングとタンパク質発現に適用することでさらに説明される。
論文 参考訳(メタデータ) (2023-02-06T23:34:51Z) - Stochastic First-Order Learning for Large-Scale Flexibly Tied Gaussian
Mixture Model [3.4546761246181696]
ガウス混合モデル(GMM)の多様体上での新しい最適化アルゴリズムを提案する。
我々は,予測最大化アルゴリズムを,より高い確率で達成し,収束のエポックを少なくし,各エポックあたりの時間を少なくすることができることを観察した。
論文 参考訳(メタデータ) (2022-12-11T04:24:52Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Mixed data Deep Gaussian Mixture Model: A clustering model for mixed
datasets [0.0]
我々はMixed Deep Gaussian Mixture Model (MDGMM)と呼ばれるモデルに基づくクラスタリング手法を提案する。
このアーキテクチャは柔軟性があり、連続データや非連続データにも適用できる。
我々のモデルはデータの連続的な低次元表現を提供し、混合データセットを視覚化するのに有用なツールである。
論文 参考訳(メタデータ) (2020-10-13T19:52:46Z) - Generalized Matrix Factorization: efficient algorithms for fitting
generalized linear latent variable models to large data arrays [62.997667081978825]
一般化線形潜在変数モデル(GLLVM)は、そのような因子モデルを非ガウス応答に一般化する。
GLLVMのモデルパラメータを推定する現在のアルゴリズムは、集約的な計算を必要とし、大規模なデータセットにスケールしない。
本稿では,GLLVMを高次元データセットに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T04:28:19Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Ensemble Model with Batch Spectral Regularization and Data Blending for
Cross-Domain Few-Shot Learning with Unlabeled Data [75.94147344921355]
多様な特徴変換行列を用いてマルチブランチアンサンブルフレームワークを構築する。
本研究では,未ラベルデータを利用したデータブレンディング手法を提案し,対象領域におけるスパースサポートを増強する。
論文 参考訳(メタデータ) (2020-06-08T02:27:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。