論文の概要: Hierarchical clustering with maximum density paths and mixture models
- arxiv url: http://arxiv.org/abs/2503.15582v1
- Date: Wed, 19 Mar 2025 15:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:48.105870
- Title: Hierarchical clustering with maximum density paths and mixture models
- Title(参考訳): 最大密度パスと混合モデルを持つ階層クラスタリング
- Authors: Martin Ritzert, Polina Turishcheva, Laura Hansel, Paul Wollenhaupt, Marissa Weis, Alexander Ecker,
- Abstract要約: 階層クラスタリングは、データの構造を分析するための効果的で解釈可能な手法である。
クラスタの正確な数は不明な環境では特に有用であり、複雑なデータセットを探索するための堅牢なフレームワークを提供する。
提案手法は,まずガウスあるいは学生のt混合モデルを用いてデータをオーバークラスタリングし,次に誘導密度景観に基づいて階層的にクラスタをマージすることで,この制限に対処する。
このアプローチは、最先端のクラスタリング性能と意味のある階層を提供し、探索データ分析に有用なツールである。
- 参考スコア(独自算出の注目度): 39.42511559155036
- License:
- Abstract: Hierarchical clustering is an effective and interpretable technique for analyzing structure in data, offering a nuanced understanding by revealing insights at multiple scales and resolutions. It is particularly helpful in settings where the exact number of clusters is unknown, and provides a robust framework for exploring complex datasets. Additionally, hierarchical clustering can uncover inner structures within clusters, capturing subtle relationships and nested patterns that may be obscured by traditional flat clustering methods. However, existing hierarchical clustering methods struggle with high-dimensional data, especially when there are no clear density gaps between modes. Our method addresses this limitation by leveraging a two-stage approach, first employing a Gaussian or Student's t mixture model to overcluster the data, and then hierarchically merging clusters based on the induced density landscape. This approach yields state-of-the-art clustering performance while also providing a meaningful hierarchy, making it a valuable tool for exploratory data analysis. Code is available at https://github.com/ecker-lab/tneb clustering.
- Abstract(参考訳): 階層的クラスタリング(Hierarchical clustering)は、データの構造を解析し、複数のスケールと解像度で洞察を明らかにすることによって、微妙な理解を提供する、効果的で解釈可能なテクニックである。
クラスタの正確な数は不明な環境では特に有用であり、複雑なデータセットを探索するための堅牢なフレームワークを提供する。
さらに階層的なクラスタリングは、クラスタ内の内部構造を明らかにし、微妙な関係や、従来のフラットクラスタリングメソッドによって隠蔽される可能性のあるネストされたパターンをキャプチャする。
しかし、既存の階層的クラスタリング手法は、特にモード間に明確な密度ギャップがない場合、高次元データに苦しむ。
提案手法は,まずガウスあるいは学生のt混合モデルを用いてデータをオーバークラスタリングし,次に誘導密度景観に基づいて階層的にクラスタをマージすることで,この制限に対処する。
このアプローチは、最先端のクラスタリング性能と意味のある階層を提供し、探索データ分析に有用なツールである。
コードはhttps://github.com/ecker-lab/tnebクラスタリングで入手できる。
関連論文リスト
- Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Contrastive Hierarchical Clustering [8.068701201341065]
CoHiClustは、ディープニューラルネットワークに基づくContrastive Hierarchical Clusteringモデルである。
自己教師付き学習アプローチを採用することで、CoHiClustは、ラベル付きデータにアクセスせずに、ベースネットワークをバイナリツリーに蒸留する。
論文 参考訳(メタデータ) (2023-03-03T07:54:19Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - Enhancing cluster analysis via topological manifold learning [0.3823356975862006]
クラスタ化前にデータセットのトポロジ構造を推定することで,クラスタ検出を大幅に向上させることができることを示す。
位相構造を推定するための多様体学習法UMAPと密度に基づくクラスタリング法DBSCANを組み合わせた。
論文 参考訳(メタデータ) (2022-07-01T15:53:39Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。