論文の概要: A Distance-based Separability Measure for Internal Cluster Validation
- arxiv url: http://arxiv.org/abs/2106.09794v1
- Date: Thu, 17 Jun 2021 20:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:12:51.235657
- Title: A Distance-based Separability Measure for Internal Cluster Validation
- Title(参考訳): 内部クラスタ検証のための距離ベース分離性尺度
- Authors: Shuyue Guan, Murray Loew
- Abstract要約: 内部クラスタ妥当性指標(CVI)は、教師なし学習におけるクラスタリング結果を評価するために用いられる。
データ分離可能性尺度に基づく距離ベース分離可能性指数(DSI)を提案する。
結果は、DSIが他の比較CVIと比較して効果的で、ユニークで、競争力のあるCVIであることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To evaluate clustering results is a significant part of cluster analysis.
Since there are no true class labels for clustering in typical unsupervised
learning, many internal cluster validity indices (CVIs), which use predicted
labels and data, have been created. Without true labels, to design an effective
CVI is as difficult as to create a clustering method. And it is crucial to have
more CVIs because there are no universal CVIs that can be used to measure all
datasets and no specific methods of selecting a proper CVI for clusters without
true labels. Therefore, to apply a variety of CVIs to evaluate clustering
results is necessary. In this paper, we propose a novel internal CVI -- the
Distance-based Separability Index (DSI), based on a data separability measure.
We compared the DSI with eight internal CVIs including studies from early Dunn
(1974) to most recent CVDD (2019) and an external CVI as ground truth, by using
clustering results of five clustering algorithms on 12 real and 97 synthetic
datasets. Results show DSI is an effective, unique, and competitive CVI to
other compared CVIs. We also summarized the general process to evaluate CVIs
and created the rank-difference metric for comparison of CVIs' results.
- Abstract(参考訳): クラスタリング結果を評価することは、クラスタ分析の重要な部分である。
教師なし学習におけるクラスタリングには真のクラスラベルがないため、予測されたラベルとデータを使用する内部クラスタ妥当性指標(CVI)が多数作成されている。
真のラベルがなければ、効果的なCVIを設計するのはクラスタリングメソッドを作成するのと同じくらい難しい。
また、すべてのデータセットを測定するために使用できる普遍的なCVIはなく、真のラベルのないクラスタに対して適切なCVIを選択するための特定の方法がないため、より多くのCVIを持つことは重要です。
そのため,クラスタリング結果の評価には様々なCVIを適用する必要がある。
本稿では,データ分離性尺度に基づく新しい内部cvi - distance-based separability index (dsi)を提案する。
DSIとDun(1974年)と最近のCVDD(2019年)の8つの内部CVIを比較し、12の実および97の合成データセット上の5つのクラスタリングアルゴリズムのクラスタリング結果を用いて、外部CVIを比較した。
結果は、DSIが他の比較CVIと比較して効果的で、ユニークで、競争力のあるCVIであることを示している。
また, CVIs 評価の一般的な過程を要約し, CVIs の結果の比較のためのランク差基準を作成した。
関連論文リスト
- MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - A Bayesian cluster validity index [0.0]
クラスタ妥当性指標(CVI)は、データセット内のクラスタの最適な数を特定するように設計されている。
既存の指標に基づくベイズクラスタ妥当性指数(BCVI)を導入する。
私たちのBCVIは、ユーザの専門知識が価値のある状況において明確なアドバンテージを提供しています。
論文 参考訳(メタデータ) (2024-02-03T14:23:36Z) - CLC: Cluster Assignment via Contrastive Representation Learning [9.631532215759256]
コントラスト学習を用いてクラスタ割り当てを直接学習するコントラスト学習ベースのクラスタリング(CLC)を提案する。
完全なImageNetデータセットで53.4%の精度を実現し、既存のメソッドを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-06-08T07:15:13Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z) - An Internal Cluster Validity Index Using a Distance-based Separability
Measure [0.0]
典型的な教師なし学習では、クラスタリングのための真のクラスラベルはありません。
すべてのデータセットを測定するために使用できる普遍的なCVIは存在しない。
我々はDSI(Distance-based Separability Index)と呼ばれる新しいCVIを提案する。
論文 参考訳(メタデータ) (2020-09-02T20:20:29Z) - iCVI-ARTMAP: Accelerating and improving clustering using adaptive
resonance theory predictive mapping and incremental cluster validity indices [1.160208922584163]
iCVI-ARTMAPは、インクリメンタルクラスタ妥当性指標(iCVI)を使用して教師なし学習を行う。
バッチCVI計算を使用する場合よりも、最大2桁の実行時間を実現することができる。
論文 参考訳(メタデータ) (2020-08-22T19:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。