論文の概要: Hierarchical clustering with maximum density paths and mixture models
- arxiv url: http://arxiv.org/abs/2503.15582v2
- Date: Wed, 21 May 2025 10:35:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:57.916655
- Title: Hierarchical clustering with maximum density paths and mixture models
- Title(参考訳): 最大密度パスと混合モデルを持つ階層クラスタリング
- Authors: Martin Ritzert, Polina Turishcheva, Laura Hansel, Paul Wollenhaupt, Marissa A. Weis, Alexander S. Ecker,
- Abstract要約: t-NEBは確率的に基底化された階層的クラスタリング法である。
自然な高次元データに対して最先端のクラスタリング性能が得られる。
- 参考スコア(独自算出の注目度): 44.443538161979056
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hierarchical clustering is an effective, interpretable method for analyzing structure in data. It reveals insights at multiple scales without requiring a predefined number of clusters and captures nested patterns and subtle relationships, which are often missed by flat clustering approaches. However, existing hierarchical clustering methods struggle with high-dimensional data, especially when there are no clear density gaps between modes. In this work, we introduce t-NEB, a probabilistically grounded hierarchical clustering method, which yields state-of-the-art clustering performance on naturalistic high-dimensional data. t-NEB consists of three steps: (1) density estimation via overclustering; (2) finding maximum density paths between clusters; (3) creating a hierarchical structure via bottom-up cluster merging. t-NEB uses a probabilistic parametric density model for both overclustering and cluster merging, which yields both high clustering performance and a meaningful hierarchy, making it a valuable tool for exploratory data analysis. Code is available at https://github.com/ecker-lab/tneb clustering.
- Abstract(参考訳): 階層的クラスタリングは、データの構造を分析する効果的な解釈可能な方法である。
事前に定義された数のクラスタを必要とせず、複数のスケールで洞察を明らかにし、ネストしたパターンと微妙な関係をキャプチャする。
しかし、既存の階層的クラスタリング手法は、特にモード間に明確な密度ギャップがない場合、高次元データに苦しむ。
本研究では, 階層クラスタリング手法である t-NEB を導入し, 自然主義的高次元データに対して, 最先端のクラスタリング性能を実現する。
t-NEB は,(1) クラスタリングによる密度推定,(2) クラスタ間の最大密度経路の探索,(3) ボトムアップクラスタマージによる階層構造の生成の三段階からなる。
t-NEBは、オーバークラスタリングとクラスタマージの両方に確率論的パラメトリック密度モデルを使用し、高いクラスタリング性能と有意義な階層を生成する。
コードはhttps://github.com/ecker-lab/tnebクラスタリングで入手できる。
関連論文リスト
- Manifold Clustering with Schatten p-norm Maximization [16.90743611125625]
我々は,多様体クラスタリングに基づく新しいクラスタリングフレームワークを開発した。
具体的には、アルゴリズムはラベルを使用して多様体の構造をガイドし、その上にクラスタリングを行う。
クラスタリング過程におけるクラスバランスを自然に維持するために、ラベルのシャッテン p-ノルムを最大化する。
論文 参考訳(メタデータ) (2025-04-29T03:23:06Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Contrastive Hierarchical Clustering [8.068701201341065]
CoHiClustは、ディープニューラルネットワークに基づくContrastive Hierarchical Clusteringモデルである。
自己教師付き学習アプローチを採用することで、CoHiClustは、ラベル付きデータにアクセスせずに、ベースネットワークをバイナリツリーに蒸留する。
論文 参考訳(メタデータ) (2023-03-03T07:54:19Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - Enhancing cluster analysis via topological manifold learning [0.3823356975862006]
クラスタ化前にデータセットのトポロジ構造を推定することで,クラスタ検出を大幅に向上させることができることを示す。
位相構造を推定するための多様体学習法UMAPと密度に基づくクラスタリング法DBSCANを組み合わせた。
論文 参考訳(メタデータ) (2022-07-01T15:53:39Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。