論文の概要: Hierarchical mixtures of Gaussians for combined dimensionality reduction
and clustering
- arxiv url: http://arxiv.org/abs/2206.04841v1
- Date: Fri, 10 Jun 2022 02:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:29:42.567567
- Title: Hierarchical mixtures of Gaussians for combined dimensionality reduction
and clustering
- Title(参考訳): 次元の縮小とクラスタリングを組み合わせたガウスの階層的混合
- Authors: Sacha Sokoloski, Philipp Berens
- Abstract要約: このような2段階モデルの族が、ガウスの階層混合(HMoG)と呼ばれる単一の階層モデルにどのように結合できるかを示す。
HMoGは次元縮小とクラスタリングの両方を同時に捕捉し、その性能は確率関数によって閉形式で定量化される。
HMoGを合成データおよびRNAシークエンシングデータに適用し、2段階モデルの限界を超える方法を示す。
- 参考スコア(独自算出の注目度): 5.819751855626331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To avoid the curse of dimensionality, a common approach to clustering
high-dimensional data is to first project the data into a space of reduced
dimension, and then cluster the projected data. Although effective, this
two-stage approach prevents joint optimization of the dimensionality-reduction
and clustering models, and obscures how well the complete model describes the
data. Here, we show how a family of such two-stage models can be combined into
a single, hierarchical model that we call a hierarchical mixture of Gaussians
(HMoG). An HMoG simultaneously captures both dimensionality-reduction and
clustering, and its performance is quantified in closed-form by the likelihood
function. By formulating and extending existing models with exponential family
theory, we show how to maximize the likelihood of HMoGs with
expectation-maximization. We apply HMoGs to synthetic data and RNA sequencing
data, and demonstrate how they exceed the limitations of two-stage models.
Ultimately, HMoGs are a rigorous generalization of a common statistical
framework, and provide researchers with a method to improve model performance
when clustering high-dimensional data.
- Abstract(参考訳): 次元の呪いを避けるために、高次元データをクラスタリングする一般的なアプローチは、まずデータを縮小次元の空間に投影し、次に投影されたデータをクラスタ化する。
この2段階のアプローチは有効ではあるが、次元の縮小とクラスタリングモデルの共同最適化を防ぎ、完全なモデルがそのデータをいかにうまく記述するかを曖昧にする。
ここでは、そのような2段階モデルの族が、ガウスの階層混合(HMoG)と呼ばれる単一の階層モデルにどのように結合できるかを示す。
HMoGは次元縮小とクラスタリングの両方を同時に捕捉し、その性能は確率関数によって閉形式で定量化される。
指数族理論で既存のモデルを定式化し拡張することにより、期待最大化で HMoG の確率を最大化する方法を示す。
HMoGを合成データおよびRNAシークエンシングデータに適用し、2段階モデルの限界を超える方法を示す。
究極的には、HMoGは共通の統計フレームワークの厳密な一般化であり、高次元データをクラスタリングする際のモデル性能を改善する方法を提供する。
関連論文リスト
- SurgeryV2: Bridging the Gap Between Model Merging and Multi-Task Learning with Deep Representation Surgery [54.866490321241905]
モデルマージに基づくマルチタスク学習(MTL)は、複数のエキスパートモデルをマージしてMTLを実行するための有望なアプローチを提供する。
本稿では,統合モデルの表現分布について検討し,「表現バイアス」の重要な問題を明らかにする。
このバイアスは、マージされたMTLモデルの表現と専門家モデルの間の大きな分布ギャップから生じ、マージされたMTLモデルの最適下性能に繋がる。
論文 参考訳(メタデータ) (2024-10-18T11:49:40Z) - Adaptive Fuzzy C-Means with Graph Embedding [84.47075244116782]
ファジィクラスタリングアルゴリズムは、大まかに2つの主要なグループに分類できる: ファジィC平均法(FCM)と混合モデルに基づく方法。
本稿では,FCMを用いたクラスタリングモデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T08:15:50Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Clustering based on Mixtures of Sparse Gaussian Processes [6.939768185086753]
低次元の組込み空間を使ってデータをクラスタする方法は、マシンラーニングにおいて依然として難しい問題である。
本稿では,クラスタリングと次元還元の両立を目的とした共同定式化を提案する。
我々のアルゴリズムはスパースガウス過程の混合に基づいており、スパースガウス過程混合クラスタリング(SGP-MIC)と呼ばれる。
論文 参考訳(メタデータ) (2023-03-23T20:44:36Z) - Riemannian classification of EEG signals with missing values [67.90148548467762]
本稿では脳波の分類に欠落したデータを扱うための2つの方法を提案する。
第1のアプローチでは、インプットされたデータと$k$-nearestの隣人アルゴリズムとの共分散を推定し、第2のアプローチでは、期待最大化アルゴリズム内で観測データの可能性を活用することにより、観測データに依存する。
その結果, 提案手法は観測データに基づく分類よりも優れており, 欠落したデータ比が増大しても高い精度を維持することができることがわかった。
論文 参考訳(メタデータ) (2021-10-19T14:24:50Z) - T-LoHo: A Bayesian Regularization Model for Structured Sparsity and
Smoothness on Graphs [0.0]
グラフ構造化データでは、構造化されたスパーシリティと滑らかさが団結する傾向にある。
グラフィカルな関係を持つ高次元パラメータに先立って提案する。
構造された空間と滑らかさを同時に検出するために使用します。
論文 参考訳(メタデータ) (2021-07-06T10:10:03Z) - Mixed data Deep Gaussian Mixture Model: A clustering model for mixed
datasets [0.0]
我々はMixed Deep Gaussian Mixture Model (MDGMM)と呼ばれるモデルに基づくクラスタリング手法を提案する。
このアーキテクチャは柔軟性があり、連続データや非連続データにも適用できる。
我々のモデルはデータの連続的な低次元表現を提供し、混合データセットを視覚化するのに有用なツールである。
論文 参考訳(メタデータ) (2020-10-13T19:52:46Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Model-based Clustering using Automatic Differentiation: Confronting
Misspecification and High-Dimensional Data [6.053629733936546]
ガウス混合モデルを用いたモデルベースクラスタリングの実用上重要な2つの事例について検討する。
本研究では,EMのクラスタリング性能が,不特定な場合のグラディエントDescentと比較して向上していることを示す。
そこで本稿では,一対の部品間のKulback Leibler分散に基づく新たなペナルティ項を提案する。
論文 参考訳(メタデータ) (2020-07-08T10:56:05Z) - Estimation of sparse Gaussian graphical models with hidden clustering
structure [8.258451067861932]
隠れクラスタリング構造を持つスパースガウス図形モデルを推定するモデルを提案する。
対称なガウス・シーデルに基づく乗算器の交互方向法を開発した。
合成データと実データの両方に関する数値実験により,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-04-17T08:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。