論文の概要: Deep Clustering Using the Soft Silhouette Score: Towards Compact and
Well-Separated Clusters
- arxiv url: http://arxiv.org/abs/2402.00608v1
- Date: Thu, 1 Feb 2024 14:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 15:12:37.463927
- Title: Deep Clustering Using the Soft Silhouette Score: Towards Compact and
Well-Separated Clusters
- Title(参考訳): ソフトシルエットスコアを用いた深層クラスタリング : コンパクト化と分別化を目指して
- Authors: Georgios Vardakas, Ioannis Papakostas, Aristidis Likas
- Abstract要約: 我々はシルエット係数の確率的定式化であるソフトシルエットを提案する。
本稿では,ソフトシルエット目的関数の最適化に適した,オートエンコーダに基づくディープラーニングアーキテクチャを提案する。
提案したディープクラスタリング手法は、様々なベンチマークデータセット上でよく研究されたディープクラスタリング手法と比較された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised learning has gained prominence in the big data era, offering a
means to extract valuable insights from unlabeled datasets. Deep clustering has
emerged as an important unsupervised category, aiming to exploit the non-linear
mapping capabilities of neural networks in order to enhance clustering
performance. The majority of deep clustering literature focuses on minimizing
the inner-cluster variability in some embedded space while keeping the learned
representation consistent with the original high-dimensional dataset. In this
work, we propose soft silhoutte, a probabilistic formulation of the silhouette
coefficient. Soft silhouette rewards compact and distinctly separated
clustering solutions like the conventional silhouette coefficient. When
optimized within a deep clustering framework, soft silhouette guides the
learned representations towards forming compact and well-separated clusters. In
addition, we introduce an autoencoder-based deep learning architecture that is
suitable for optimizing the soft silhouette objective function. The proposed
deep clustering method has been tested and compared with several well-studied
deep clustering methods on various benchmark datasets, yielding very
satisfactory clustering results.
- Abstract(参考訳): 教師なし学習は、ラベルのないデータセットから貴重な洞察を抽出する手段を提供する、ビッグデータ時代において注目されている。
ディープクラスタリングは重要な教師なしのカテゴリとして登場し、クラスタリング性能を向上させるためにニューラルネットワークの非線形マッピング機能を活用することを目的としている。
深層クラスタリングの文献の大部分は、学習された表現を元の高次元データセットと一致させながら、組込み空間内のクラスタ内変動を最小化することに焦点を当てている。
本研究では,シルエット係数の確率的定式化であるソフトシルエットを提案する。
ソフトシルエットは、従来のシルエット係数のようなコンパクトで分離されたクラスタリングソリューションに報いる。
深層クラスタリングフレームワーク内で最適化されると、ソフトシルエットは学習した表現を、コンパクトで分離されたクラスタの形成へと導く。
さらに,ソフトなシルエット目的関数の最適化に適した,オートエンコーダに基づくディープラーニングアーキテクチャを提案する。
提案手法は,様々なベンチマークデータセットを用いた深層クラスタリング手法と比較し,非常に良好なクラスタリング結果を得た。
関連論文リスト
- SHADE: Deep Density-based Clustering [13.629470968274]
SHADEは密度接続性を損失関数に組み込む最初のディープクラスタリングアルゴリズムである。
ディープオートエンコーダの表現力で高次元および大規模データセットをサポートする。
これはクラスタリングの品質、特に非ガウスクラスタを含むデータにおいて、既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-10-08T18:03:35Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Deep adaptive fuzzy clustering for evolutionary unsupervised
representation learning [2.8028128734158164]
大規模で複雑な画像のクラスタ割り当ては、パターン認識とコンピュータビジョンにおいて重要かつ困難な作業です。
反復最適化による新しい進化的教師なし学習表現モデルを提案する。
ファジィメンバシップを利用して深層クラスタ割り当ての明確な構造を表現するディープリコンストラクションモデルに対して,共同でファジィクラスタリングを行った。
論文 参考訳(メタデータ) (2021-03-31T13:58:10Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。