論文の概要: Supervised Enhanced Soft Subspace Clustering (SESSC) for TSK Fuzzy
Classifiers
- arxiv url: http://arxiv.org/abs/2002.12404v1
- Date: Thu, 27 Feb 2020 19:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 07:46:13.948139
- Title: Supervised Enhanced Soft Subspace Clustering (SESSC) for TSK Fuzzy
Classifiers
- Title(参考訳): tskファジィ分類器のための教師付き強化ソフトサブスペースクラスタリング(sessc)
- Authors: Yuqi Cui, Huidong Wang, Dongrui Wu
- Abstract要約: ファジィc平均クラスタリングアルゴリズムは,高木・スゲノカン(TSK)ファジィ分類器パラメータ推定によく用いられる。
本稿では,クラスタ内コンパクト性,クラスタ間分離,クラスタリングにおけるラベル情報とを同時に考慮した拡張ソフトサブスペースクラスタリング(SESSC)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 25.32478253796209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fuzzy c-means based clustering algorithms are frequently used for
Takagi-Sugeno-Kang (TSK) fuzzy classifier antecedent parameter estimation. One
rule is initialized from each cluster. However, most of these clustering
algorithms are unsupervised, which waste valuable label information in the
training data. This paper proposes a supervised enhanced soft subspace
clustering (SESSC) algorithm, which considers simultaneously the within-cluster
compactness, between-cluster separation, and label information in clustering.
It can effectively deal with high-dimensional data, be used as a classifier
alone, or be integrated into a TSK fuzzy classifier to further improve its
performance. Experiments on nine UCI datasets from various application domains
demonstrated that SESSC based initialization outperformed other clustering
approaches, especially when the number of rules is small.
- Abstract(参考訳): ファジィc平均クラスタリングアルゴリズムは,高木スゲノカン(TSK)ファジィ分類器の先行パラメータ推定によく用いられる。
1つのルールは各クラスタから初期化されます。
しかし、これらのクラスタリングアルゴリズムのほとんどは教師なしであり、トレーニングデータに貴重なラベル情報を無駄にしている。
本稿では,クラスタ内コンパクト性,クラスタ間分離,クラスタリングにおけるラベル情報とを同時に考慮した拡張ソフトサブスペースクラスタリング(SESSC)アルゴリズムを提案する。
高次元データを効果的に処理したり、分類器単独で使用したり、tskファジィ分類器に統合してさらに性能を向上させることができる。
さまざまなアプリケーションドメインからの9つのUCIデータセットの実験では、SESSCベースの初期化は、特にルールの数が少ない場合、他のクラスタリングアプローチよりも優れていた。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - A3S: A General Active Clustering Method with Pairwise Constraints [66.74627463101837]
A3Sは、適応クラスタリングアルゴリズムによって得られる初期クラスタ結果に対して、戦略的にアクティブクラスタリングを調整する。
さまざまな実世界のデータセットにわたる広範な実験において、A3Sは、人間のクエリを著しく少なくして、望ましい結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T13:37:03Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Multiscale Clustering of Hyperspectral Images Through Spectral-Spatial
Diffusion Geometry [9.619814126465206]
クラスタリングアルゴリズムはデータセットを類似点のグループに分割する。
本論文の主な貢献は,マルチスケール空間規則化拡散学習(M-SRDL)クラスタリングアルゴリズムである。
マルチスケールクラスタリングフレームワークに空間正規化を組み込むことは、hsiデータに適用するとより滑らかでより一貫性のあるクラスタに対応できることを示す。
論文 参考訳(メタデータ) (2021-03-29T17:24:28Z) - CAC: A Clustering Based Framework for Classification [20.372627144885158]
分類アウェアクラスタリング(CAC)と呼ばれるシンプルで効率的で汎用的なフレームワークを設計する。
本実験は,クラスタリングと分類を併用した従来の手法よりもCACの有効性を示すものである。
論文 参考訳(メタデータ) (2021-02-23T18:59:39Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - A Classification-Based Approach to Semi-Supervised Clustering with
Pairwise Constraints [5.639904484784126]
対制約付き半教師付きクラスタリングのためのネットワークフレームワークを提案する。
既存のアプローチとは対照的に、SSCを2つの単純な分類タスク/ステージに分解する。
提案手法であるS3C2は、二項分類がマルチクラスクラスタリングよりも容易であるという観察から動機づけられている。
論文 参考訳(メタデータ) (2020-01-18T20:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。