論文の概要: Deep Clustering With Consensus Representations
- arxiv url: http://arxiv.org/abs/2210.07063v1
- Date: Thu, 13 Oct 2022 14:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:38:14.086638
- Title: Deep Clustering With Consensus Representations
- Title(参考訳): 合意表現によるディープクラスタリング
- Authors: Lukas Miklautz, Martin Teuffenbach, Pascal Weber, Rona Perjuci, Walid
Durani, Christian B\"ohm, Claudia Plant
- Abstract要約: 異種クラスタリングにおけるコンセンサス表現の学習という概念を導入し,コンセンサスクラスタリングにアプローチする新しい概念を提案する。
複数の異種クラスタリングアルゴリズムの表現とクラスタリング結果を共同で改善する,最初のディープクラスタリング手法であるDECCSを提案する。
- 参考スコア(独自算出の注目度): 10.058084837348366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of deep clustering combines deep learning and clustering to learn
representations that improve both the learned representation and the
performance of the considered clustering method. Most existing deep clustering
methods are designed for a single clustering method, e.g., k-means, spectral
clustering, or Gaussian mixture models, but it is well known that no clustering
algorithm works best in all circumstances. Consensus clustering tries to
alleviate the individual weaknesses of clustering algorithms by building a
consensus between members of a clustering ensemble. Currently, there is no deep
clustering method that can include multiple heterogeneous clustering algorithms
in an ensemble to update representations and clusterings together. To close
this gap, we introduce the idea of a consensus representation that maximizes
the agreement between ensemble members. Further, we propose DECCS (Deep
Embedded Clustering with Consensus representationS), a deep consensus
clustering method that learns a consensus representation by enhancing the
embedded space to such a degree that all ensemble members agree on a common
clustering result. Our contributions are the following: (1) We introduce the
idea of learning consensus representations for heterogeneous clusterings, a
novel notion to approach consensus clustering. (2) We propose DECCS, the first
deep clustering method that jointly improves the representation and clustering
results of multiple heterogeneous clustering algorithms. (3) We show in
experiments that learning a consensus representation with DECCS is
outperforming several relevant baselines from deep clustering and consensus
clustering. Our code can be found at https://gitlab.cs.univie.ac.at/lukas/deccs
- Abstract(参考訳): ディープクラスタリングの分野は、ディープラーニングとクラスタリングを組み合わせることで、学習された表現と検討されたクラスタリング方法のパフォーマンスの両方を改善する表現を学ぶ。
既存の深層クラスタリング法は、k平均、スペクトルクラスタリング、ガウス混合モデルなどの単一のクラスタリング法のために設計されているが、すべての状況においてクラスタリングアルゴリズムが最適ではないことはよく知られている。
コンセンサスクラスタリングは、クラスタリングアンサンブルのメンバー間のコンセンサスを構築することによって、クラスタリングアルゴリズムの個々の弱点を軽減する。
現在、複数のヘテロジニアスクラスタリングアルゴリズムをアンサンブルに含めて、表現とクラスタリングを同時に更新できるディープクラスタリング方法は存在しない。
このギャップを埋めるために、アンサンブルメンバー間の合意を最大化するコンセンサス表現の概念を導入する。
さらに,組込み空間を拡張してコンセンサス表現を学習する深層コンセンサスクラスタリング手法であるdeccs(deep embedded clustering with consensus representations)を提案する。
1)異種クラスタリングにおけるコンセンサス表現の学習という概念を導入し,コンセンサスクラスタリングにアプローチする新しい概念を提案する。
2)複数の異種クラスタリングアルゴリズムの表現とクラスタリング結果を共同で改善する,最初の深層クラスタリング手法であるdeccsを提案する。
3)DECSによるコンセンサス表現の学習は,ディープクラスタリングやコンセンサスクラスタリングから,いくつかの関連するベースラインを上回っていることを示す。
私たちのコードはhttps://gitlab.cs.univie.ac.at/lukas/deccsにある。
関連論文リスト
- Similarity and Dissimilarity Guided Co-association Matrix Construction for Ensemble Clustering [22.280221709474105]
アンサンブルクラスタリングを実現するためにSDGCA(Simisity and Dissimilarity Guided Co-Association matrix)を提案する。
まず、各クラスタの品質を推定するために正規化アンサンブルエントロピーを導入し、この推定に基づいて類似度行列を構築した。
ランダムウォークを用いて、基底クラスタリングの高次近接を探索し、相似行列を構成する。
論文 参考訳(メタデータ) (2024-11-01T08:10:28Z) - Towards Explainable Clustering: A Constrained Declarative based Approach [0.294944680995069]
古典的クラスタリング基準の観点から,高品質なクラスタリングを実現することを目指しており,その説明が可能である。
クラスタリングに関する優れたグローバルな説明は、各クラスタの特徴を、そのオブジェクトを記述する能力を考慮して与えるべきである。
そこで我々は,ECS と呼ばれる新しい解釈可能な制約付き手法を提案する。
論文 参考訳(メタデータ) (2024-03-26T21:00:06Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - DivClust: Controlling Diversity in Deep Clustering [47.85350249697335]
DivClustはコンセンサスクラスタリングソリューションを生成し、単一クラスタリングベースラインを一貫して上回る。
提案手法は, フレームワークやデータセット間の多様性を, 計算コストを極めて小さく効果的に制御する。
論文 参考訳(メタデータ) (2023-04-03T14:45:43Z) - Cluster-level Group Representativity Fairness in $k$-means Clustering [3.420467786581458]
クラスタリングアルゴリズムは、異なるグループが異なるクラスタ内で不利になるようにクラスタを生成することができる。
我々は,古典的アルゴリズムに先駆けて,セントロイドクラスタリングパラダイムに基づくクラスタリングアルゴリズムを開発した。
本手法はクラスタレベルの表現性フェアネスを,クラスタのコヒーレンスに低い影響で向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-12-29T22:02:28Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。