論文の概要: A Centroid Auto-Fused Hierarchical Fuzzy c-Means Clustering
- arxiv url: http://arxiv.org/abs/2004.12756v1
- Date: Mon, 27 Apr 2020 12:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:37:14.677813
- Title: A Centroid Auto-Fused Hierarchical Fuzzy c-Means Clustering
- Title(参考訳): セトロイド自己融解階層型ファジィc-平均クラスタリング
- Authors: Yunxia Lin, Songcan Chen
- Abstract要約: CAF-HFCM(Centroid Auto-Fused Hierarchical Fuzzy c-means Method)
本稿では,Centroid Auto-Fused Hierarchical Fuzzy c-means法(CAF-HFCM)を提案する。
CAF-HFCM法はFCMの様々な変種に容易に拡張できる。
- 参考スコア(独自算出の注目度): 30.709797128259236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Like k-means and Gaussian Mixture Model (GMM), fuzzy c-means (FCM) with soft
partition has also become a popular clustering algorithm and still is
extensively studied. However, these algorithms and their variants still suffer
from some difficulties such as determination of the optimal number of clusters
which is a key factor for clustering quality. A common approach for overcoming
this difficulty is to use the trial-and-validation strategy, i.e., traversing
every integer from large number like $\sqrt{n}$ to 2 until finding the optimal
number corresponding to the peak value of some cluster validity index. But it
is scarcely possible to naturally construct an adaptively agglomerative
hierarchical cluster structure as using the trial-and-validation strategy. Even
possible, existing different validity indices also lead to different number of
clusters. To effectively mitigate the problems while motivated by convex
clustering, in this paper we present a Centroid Auto-Fused Hierarchical Fuzzy
c-means method (CAF-HFCM) whose optimization procedure can automatically
agglomerate to form a cluster hierarchy, more importantly, yielding an optimal
number of clusters without resorting to any validity index. Although a
recently-proposed robust-learning fuzzy c-means (RL-FCM) can also automatically
obtain the best number of clusters without the help of any validity index,
so-involved 3 hyper-parameters need to adjust expensively, conversely, our
CAF-HFCM involves just 1 hyper-parameter which makes the corresponding
adjustment is relatively easier and more operational. Further, as an additional
benefit from our optimization objective, the CAF-HFCM effectively reduces the
sensitivity to the initialization of clustering performance. Moreover, our
proposed CAF-HFCM method is able to be straightforwardly extended to various
variants of FCM.
- Abstract(参考訳): k-meansやGaussian Mixture Model(GMM)と同様に、ソフトパーティションを持つファジィc-means(FCM)も一般的なクラスタリングアルゴリズムとなり、現在も広く研究されている。
しかし、これらのアルゴリズムとその変種は、クラスタリング品質の重要な要因である最適なクラスタ数の決定など、いくつかの困難に悩まされている。
この困難を克服するための一般的なアプローチは、全ての整数を$\sqrt{n}$ 2 のような大きな数から、あるクラスタの妥当性指数のピーク値に対応する最適な数を見つけるまでトラバースするという試行と検証の戦略を使うことである。
しかし,適応的な階層的クラスタ構造をトライアル・アンド・バリデーション戦略を用いて自然に構築することは不可能である。
可能であっても、既存の異なる妥当性指標は異なる数のクラスタをもたらす。
そこで,本研究では,クラスタ階層を形成するための最適化手順が自動的に集積され,有効性指標に頼らずに最適なクラスタ数が得られるセンタロイド自己融合階層型ファジィc-means法(caf-hfcm)を提案する。
最近発表されたロバスト学習型ファジィc-means (rl-fcm) は、有効性指標を必要とせずに、最適なクラスタ数を自動的に得ることができるが、このような3つのハイパーパラメータは高価な調整が必要となる。
さらに,最適化目標の付加的な利点として,caf-hfcmはクラスタリング性能の初期化に対する感度を効果的に低減する。
さらに,提案手法はFCMの様々な変種に容易に拡張できる。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Accelerated Fuzzy C-Means Clustering Based on New Affinity Filtering and
Membership Scaling [74.85538972921917]
Fuzzy C-Means (FCM) は広く使われているクラスタリング手法である。
FCMはクラスタリングプロセスの中間から後期の段階で効率が低い。
新しいアフィニティフィルタとメンバシップスケーリング(AMFCM)に基づくFCMを提案する。
論文 参考訳(メタデータ) (2023-02-14T14:20:31Z) - Hybridization of K-means with improved firefly algorithm for automatic
clustering in high dimension [0.0]
最適なクラスタ数を求めるため,PCAを用いてSilhouette法とElbow法を実装した。
Fireflyアルゴリズムでは、全個体群は自動的にサブ集団に分割され、収束速度を減少させ、局所的なミニマにトラップされる。
本研究は,自動クラスタリングのためのK-meansとODFAモデルを組み合わせた改良型ホタルを提案する。
論文 参考訳(メタデータ) (2023-02-09T18:43:10Z) - An Improved Algorithm for Clustered Federated Learning [29.166363192740768]
本稿では、フェデレートラーニング(FL)における異種モデル間の二分法と同時学習について述べる。
ユーザの(最適)局所モデルに基づいてFLの新しいクラスタリングモデルを定義する。
textttSR-FCAは、クラスタ内の堅牢な学習アルゴリズムを使用して、同時トレーニングとクラスタエラーの修正を行う。
論文 参考訳(メタデータ) (2022-10-20T19:14:36Z) - Late Fusion Multi-view Clustering via Global and Local Alignment
Maximization [61.89218392703043]
マルチビュークラスタリング(MVC)は、異なるビューからの補完情報を最適に統合し、クラスタリング性能を改善する。
既存のアプローチの多くは、クラスタリングに最適な類似性行列を学ぶために、複数の事前定義された類似性を直接融合する。
これらの問題に対処するために、アライメントを通してレイトフュージョンMVCを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:49:31Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - A New Validity Index for Fuzzy-Possibilistic C-Means Clustering [6.174448419090291]
Fuzzy-Possibilistic (FP)指数は、形状や密度の異なるクラスターの存在下でうまく機能する。
FPCMはファジィの度合いと典型性の度合いを事前選択する必要がある。
論文 参考訳(メタデータ) (2020-05-19T01:48:13Z) - Supervised Enhanced Soft Subspace Clustering (SESSC) for TSK Fuzzy
Classifiers [25.32478253796209]
ファジィc平均クラスタリングアルゴリズムは,高木・スゲノカン(TSK)ファジィ分類器パラメータ推定によく用いられる。
本稿では,クラスタ内コンパクト性,クラスタ間分離,クラスタリングにおけるラベル情報とを同時に考慮した拡張ソフトサブスペースクラスタリング(SESSC)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-27T19:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。