論文の概要: DivClust: Controlling Diversity in Deep Clustering
- arxiv url: http://arxiv.org/abs/2304.01042v1
- Date: Mon, 3 Apr 2023 14:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 14:53:02.332656
- Title: DivClust: Controlling Diversity in Deep Clustering
- Title(参考訳): DivClust: ディープクラスタリングにおける多様性の制御
- Authors: Ioannis Maniadis Metaxas, Georgios Tzimiropoulos, Ioannis Patras
- Abstract要約: DivClustはコンセンサスクラスタリングソリューションを生成し、単一クラスタリングベースラインを一貫して上回る。
提案手法は, フレームワークやデータセット間の多様性を, 計算コストを極めて小さく効果的に制御する。
- 参考スコア(独自算出の注目度): 47.85350249697335
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Clustering has been a major research topic in the field of machine learning,
one to which Deep Learning has recently been applied with significant success.
However, an aspect of clustering that is not addressed by existing deep
clustering methods, is that of efficiently producing multiple, diverse
partitionings for a given dataset. This is particularly important, as a diverse
set of base clusterings are necessary for consensus clustering, which has been
found to produce better and more robust results than relying on a single
clustering. To address this gap, we propose DivClust, a diversity controlling
loss that can be incorporated into existing deep clustering frameworks to
produce multiple clusterings with the desired degree of diversity. We conduct
experiments with multiple datasets and deep clustering frameworks and show
that: a) our method effectively controls diversity across frameworks and
datasets with very small additional computational cost, b) the sets of
clusterings learned by DivClust include solutions that significantly outperform
single-clustering baselines, and c) using an off-the-shelf consensus clustering
algorithm, DivClust produces consensus clustering solutions that consistently
outperform single-clustering baselines, effectively improving the performance
of the base deep clustering framework.
- Abstract(参考訳): クラスタリングは機械学習の分野で主要な研究トピックであり、最近Deep Learningが大きな成功を収めた。
しかしながら、既存のディープクラスタリング手法では対処されないクラスタリングの側面は、所定のデータセットに対して、効率的に複数の多様なパーティションを生成することである。
これは特に重要であり、コンセンサスクラスタリングには多様なベースクラスタリングが必要であり、単一のクラスタリングに依存するよりも、より良く、より堅牢な結果を生み出すことが判明している。
このギャップに対処するために、既存のディープクラスタリングフレームワークに組み込むことが可能な多様性制御損失であるdivclustを提案する。
複数のデータセットと深いクラスタリングフレームワークで実験を行い、それを示しています。
a) 計算コストが極めて小さいフレームワークやデータセットの多様性を効果的に制御する手法。
b) DivClustが学んだクラスタリングの集合には、単一クラスタリングベースラインを著しく上回るソリューションが含まれており、
c) 既成のコンセンサスクラスタリングアルゴリズムを用いて、DivClustは、単一クラスタリングベースラインを一貫して上回り、ベースとなるディープクラスタリングフレームワークの性能を効果的に向上するコンセンサスクラスタリングソリューションを生成する。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - A3S: A General Active Clustering Method with Pairwise Constraints [66.74627463101837]
A3Sは、適応クラスタリングアルゴリズムによって得られる初期クラスタ結果に対して、戦略的にアクティブクラスタリングを調整する。
さまざまな実世界のデータセットにわたる広範な実験において、A3Sは、人間のクエリを著しく少なくして、望ましい結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T13:37:03Z) - CCFC: Bridging Federated Clustering and Contrastive Learning [9.91610928326645]
本稿では,クラスタコントラスト・フェデレーション・クラスタリング(CCFC)という新しいフェデレーション・クラスタリング手法を提案する。
CCFCは、実用的な観点から、デバイス障害を扱う上で優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-12T15:26:44Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Cluster-level Group Representativity Fairness in $k$-means Clustering [3.420467786581458]
クラスタリングアルゴリズムは、異なるグループが異なるクラスタ内で不利になるようにクラスタを生成することができる。
我々は,古典的アルゴリズムに先駆けて,セントロイドクラスタリングパラダイムに基づくクラスタリングアルゴリズムを開発した。
本手法はクラスタレベルの表現性フェアネスを,クラスタのコヒーレンスに低い影響で向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-12-29T22:02:28Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Clustering to the Fewest Clusters Under Intra-Cluster Dissimilarity
Constraints [0.0]
均等なクラスタリングは、密度も期待されるクラスの数にも依存せず、相似性の閾値にも依存します。
このクラスタリング問題に対する様々な実践的ソリューション間のトレードオフを特定するために,適切なクラスタリングアルゴリズムをレビューし,評価する。
論文 参考訳(メタデータ) (2021-09-28T12:02:18Z) - LSEC: Large-scale spectral ensemble clustering [8.545202841051582]
本稿では,効率と効率のバランスを良くするために,大規模スペクトルアンサンブルクラスタリング(LSEC)手法を提案する。
LSEC法は既存のアンサンブルクラスタリング法よりも計算複雑性が低い。
論文 参考訳(メタデータ) (2021-06-18T00:42:03Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。