論文の概要: An Internal Cluster Validity Index Using a Distance-based Separability
Measure
- arxiv url: http://arxiv.org/abs/2009.01328v2
- Date: Mon, 4 Jan 2021 21:22:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 18:26:51.203407
- Title: An Internal Cluster Validity Index Using a Distance-based Separability
Measure
- Title(参考訳): 距離ベース分離性尺度を用いた内部クラスタ妥当性指標
- Authors: Shuyue Guan, Murray Loew
- Abstract要約: 典型的な教師なし学習では、クラスタリングのための真のクラスラベルはありません。
すべてのデータセットを測定するために使用できる普遍的なCVIは存在しない。
我々はDSI(Distance-based Separability Index)と呼ばれる新しいCVIを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To evaluate clustering results is a significant part of cluster analysis.
There are no true class labels for clustering in typical unsupervised learning.
Thus, a number of internal evaluations, which use predicted labels and data,
have been created. They are also named internal cluster validity indices
(CVIs). Without true labels, to design an effective CVI is not simple because
it is similar to create a clustering method. And, to have more CVIs is crucial
because there is no universal CVI that can be used to measure all datasets, and
no specific method for selecting a proper CVI for clusters without true labels.
Therefore, to apply more CVIs to evaluate clustering results is necessary. In
this paper, we propose a novel CVI - called Distance-based Separability Index
(DSI), based on a data separability measure. We applied the DSI and eight other
internal CVIs including early studies from Dunn (1974) to most recent studies
CVDD (2019) as comparison. We used an external CVI as ground truth for
clustering results of five clustering algorithms on 12 real and 97 synthetic
datasets. Results show DSI is an effective, unique, and competitive CVI to
other compared CVIs. In addition, we summarized the general process to evaluate
CVIs and created a new method - rank difference - to compare the results of
CVIs.
- Abstract(参考訳): クラスタリング結果を評価することは、クラスタ分析の重要な部分である。
典型的な教師なし学習では、クラスタリングのための真のクラスラベルはありません。
このように、予測されたラベルとデータを使用する多くの内部評価が作成されている。
また、内部クラスタ妥当性指標 (CVIs) とも呼ばれる。
真のラベルがなければ、効果的なCVIを設計するのは、クラスタリングメソッドを作成するのと似ているため、簡単ではない。
そして、より多くのCVIを持つことは、すべてのデータセットを測定するために使用できる普遍的なCVIがなく、真のラベルのないクラスタに対して適切なCVIを選択するための特定の方法がないため、非常に重要です。
したがって、クラスタリング結果を評価するためにより多くのCVIを適用する必要がある。
本稿では,データ分離可能性尺度に基づく,距離ベース分離性指数(DSI)と呼ばれる新しいCVIを提案する。
我々はDunn (1974) の初期の研究と最近のCVDD (2019) の8つの内部CVIを比較検討した。
我々は、12の実データと97の合成データセット上の5つのクラスタリングアルゴリズムのクラスタリング結果に、外部のCVIを用いた。
結果は、DSIが他の比較CVIと比較して効果的で、ユニークで、競争力のあるCVIであることを示している。
さらに,CVI 評価の一般的なプロセスを要約し,CVI の評価結果を比較する新しい手法であるランク差を作成した。
関連論文リスト
- ABCDE: Application-Based Cluster Diff Evals [49.1574468325115]
それは実用性を目指しており、アイテムはアプリケーション固有の重要な値を持つことができ、クラスタリングがどちらが優れているかを判断するときに人間の判断を使うのは粗悪であり、アイテムの任意のスライスのためのメトリクスを報告できる。
クラスタリング品質の差分を測定するアプローチは、高価な地平を前もって構築し、それに関して各クラスタリングを評価する代わりに、ABCDEはクラスタリング間の実際の差分に基づいて、判定のための質問をサンプリングする。
論文 参考訳(メタデータ) (2024-07-31T08:29:35Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - A Bayesian cluster validity index [0.0]
クラスタ妥当性指標(CVI)は、データセット内のクラスタの最適な数を特定するように設計されている。
既存の指標に基づくベイズクラスタ妥当性指数(BCVI)を導入する。
私たちのBCVIは、ユーザの専門知識が価値のある状況において明確なアドバンテージを提供しています。
論文 参考訳(メタデータ) (2024-02-03T14:23:36Z) - CARL-G: Clustering-Accelerated Representation Learning on Graphs [18.763104937800215]
本稿では,クラスタ検証指標(CVI)にインスパイアされた損失を利用したグラフ表現学習のための新しいクラスタリングベースのフレームワークを提案する。
CARL-Gはクラスタリング法やCVIに適応し,クラスタリング法とCVIの適切な選択により,CARL-Gは4/5データセットのノード分類ベースラインを最大79倍のトレーニングスピードアップで上回ることを示す。
論文 参考訳(メタデータ) (2023-06-12T08:14:42Z) - CLC: Cluster Assignment via Contrastive Representation Learning [9.631532215759256]
コントラスト学習を用いてクラスタ割り当てを直接学習するコントラスト学習ベースのクラスタリング(CLC)を提案する。
完全なImageNetデータセットで53.4%の精度を実現し、既存のメソッドを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-06-08T07:15:13Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - A Distance-based Separability Measure for Internal Cluster Validation [0.0]
内部クラスタ妥当性指標(CVI)は、教師なし学習におけるクラスタリング結果を評価するために用いられる。
データ分離可能性尺度に基づく距離ベース分離可能性指数(DSI)を提案する。
結果は、DSIが他の比較CVIと比較して効果的で、ユニークで、競争力のあるCVIであることを示している。
論文 参考訳(メタデータ) (2021-06-17T20:19:50Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z) - iCVI-ARTMAP: Accelerating and improving clustering using adaptive
resonance theory predictive mapping and incremental cluster validity indices [1.160208922584163]
iCVI-ARTMAPは、インクリメンタルクラスタ妥当性指標(iCVI)を使用して教師なし学習を行う。
バッチCVI計算を使用する場合よりも、最大2桁の実行時間を実現することができる。
論文 参考訳(メタデータ) (2020-08-22T19:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。