論文の概要: Tree Index: A New Cluster Evaluation Technique
- arxiv url: http://arxiv.org/abs/2003.10841v1
- Date: Tue, 24 Mar 2020 13:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:23:31.021500
- Title: Tree Index: A New Cluster Evaluation Technique
- Title(参考訳): Tree Index: 新しいクラスタ評価手法
- Authors: A. H. Beg, Md Zahidul Islam, Vladimir Estivill-Castro
- Abstract要約: ここでは、Tree Indexと呼ばれるクラスタ評価手法を紹介する。
私たちのツリーインデックスは、最小記述長の複雑さを伴わずに容易に学習できるクラスタ間のマージンを見つけています。
脳のデータセット上のクラスタリング結果(様々な技術によって達成される)において、Tree Indexは合理的なクラスタと非感受性なクラスタを区別する。
- 参考スコア(独自算出の注目度): 2.790947019327459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a cluster evaluation technique called Tree Index. Our Tree Index
algorithm aims at describing the structural information of the clustering
rather than the quantitative format of cluster-quality indexes (where the
representation power of clustering is some cumulative error similar to vector
quantization). Our Tree Index is finding margins amongst clusters for easy
learning without the complications of Minimum Description Length. Our Tree
Index produces a decision tree from the clustered data set, using the cluster
identifiers as labels. It combines the entropy of each leaf with their depth.
Intuitively, a shorter tree with pure leaves generalizes the data well (the
clusters are easy to learn because they are well separated). So, the labels are
meaningful clusters. If the clustering algorithm does not separate well, trees
learned from their results will be large and too detailed. We show that, on the
clustering results (obtained by various techniques) on a brain dataset, Tree
Index discriminates between reasonable and non-sensible clusters. We confirm
the effectiveness of Tree Index through graphical visualizations. Tree Index
evaluates the sensible solutions higher than the non-sensible solutions while
existing cluster-quality indexes fail to do so.
- Abstract(参考訳): ここでは、Tree Indexと呼ばれるクラスタ評価手法を紹介する。
我々の木索引アルゴリズムは,クラスタ品質指標の定量的フォーマットではなく,クラスタリングの構造情報を記述することを目的としている(クラスタの表現力はベクトル量子化と類似した累積誤差である)。
私たちのツリーインデックスは、最小記述長の複雑さなしに簡単に学習できるクラスタ間のマージンを見つけています。
当社のツリーインデックスは、クラスタ識別子をラベルとして、クラスタ化されたデータセットから決定ツリーを生成します。
各葉のエントロピーと深さを組み合わせる。
直感的には、純粋な葉を持つ短い木はデータをうまく一般化する(クラスターはよく分離されているので容易に学習できる)。
そのため、ラベルは意味のあるクラスタです。
クラスタリングアルゴリズムがうまく分離できなければ、結果から得られた木は大きくて詳細すぎるでしょう。
脳のデータセット上のクラスタリング結果(様々な技術によって達成される)において、Tree Indexは合理的クラスタと非感受性クラスタを区別する。
図形視覚化によるツリーインデックスの有効性を確認した。
既存のクラスタ品質指標ではそうはならないが、ツリーインデックスは非センシブルなソリューションよりもセンシブルなソリューションを評価する。
関連論文リスト
- ABCDE: Application-Based Cluster Diff Evals [49.1574468325115]
それは実用性を目指しており、アイテムはアプリケーション固有の重要な値を持つことができ、クラスタリングがどちらが優れているかを判断するときに人間の判断を使うのは粗悪であり、アイテムの任意のスライスのためのメトリクスを報告できる。
クラスタリング品質の差分を測定するアプローチは、高価な地平を前もって構築し、それに関して各クラスタリングを評価する代わりに、ABCDEはクラスタリング間の実際の差分に基づいて、判定のための質問をサンプリングする。
論文 参考訳(メタデータ) (2024-07-31T08:29:35Z) - Kernel KMeans clustering splits for end-to-end unsupervised decision
trees [16.539007424389254]
本稿では,クラスタリングのための非教師付きバイナリツリーであるKauriについて紹介する。
この方法は、セントロイドの定義を必要とせず、カーネルKMeansの目的を欲しがる最大化する。
他のカーネルでは、KauriはカーネルKMeansとCART決定ツリーの結合よりも優れていることが多い。
論文 参考訳(メタデータ) (2024-02-19T15:39:39Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - End-to-End Learning to Index and Search in Large Output Spaces [95.16066833532396]
Extreme Multi-label Classification (XMC) は現実世界の問題を解決するための一般的なフレームワークである。
本稿では,木系インデックスを特殊重み付きグラフベースインデックスに緩和する新しい手法を提案する。
ELIASは、数百万のラベルを持つ大規模極端分類ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-10-16T01:34:17Z) - How to Find a Good Explanation for Clustering? [7.951746797489421]
Moshkovitz氏、Dasgupta氏、Rashtchian氏、Frost氏(ICML 2020)は、説明可能な$k$-meansと$k$-medianクラスタリングのエレガントなモデルを提案した。
説明可能なクラスタリングに関する2つの自然なアルゴリズム的問題について検討する。
厳密なアルゴリズム分析では、入力サイズ、データの寸法、外乱数、クラスタ数、近似比といったパラメータが、説明可能なクラスタリングの計算複雑性に与える影響について光を当てています。
論文 参考訳(メタデータ) (2021-12-13T11:48:38Z) - Hierarchical clustering by aggregating representatives in
sub-minimum-spanning-trees [5.877624540482919]
本稿では,クラスタリングデンドログラムを構築しながら,代表点を効果的に検出できる階層的クラスタリングアルゴリズムを提案する。
解析の結果,提案アルゴリズムはO(nlogn)時間複雑度とO(nlogn)空間複雑度を有し,大規模データ処理のスケーラビリティを示す。
論文 参考訳(メタデータ) (2021-11-11T07:36:55Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Exact and Approximate Hierarchical Clustering Using A* [51.187990314731344]
クラスタリングのA*探索に基づく新しいアプローチを紹介します。
A*と新しいエンフォレリスデータ構造を組み合わせることで、禁止的に大きな検索空間を克服します。
実験により,本手法は粒子物理利用事例や他のクラスタリングベンチマークにおいて,ベースラインよりもかなり高品質な結果が得られることを示した。
論文 参考訳(メタデータ) (2021-04-14T18:15:27Z) - BETULA: Numerically Stable CF-Trees for BIRCH Clustering [0.76146285961466]
BIRCHクラスタリングはクラスタリングのアプローチとして広く知られており、その後の研究や商業製品に影響を与えている。
我々は,数値問題がなく,メンテナンスにそれほど費用がかからないクラスタ機能を導入し,多くの計算を簡素化し,効率を向上する。
論文 参考訳(メタデータ) (2020-06-23T10:20:36Z) - Explainable $k$-Means and $k$-Medians Clustering [25.513261099927163]
我々は、小さな決定木を使ってデータセットをクラスタに分割し、クラスタを直接的な方法で特徴付けることを検討する。
一般的なトップダウン決定木アルゴリズムが任意のコストでクラスタリングに繋がる可能性があることを示す。
我々は、$k$の葉を持つ木を用いて説明可能なクラスタを生成する効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-28T04:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。