論文の概要: How to Achieve the Intended Aim of Deep Clustering Now, without Deep Learning
- arxiv url: http://arxiv.org/abs/2602.05749v1
- Date: Thu, 05 Feb 2026 15:16:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.99705
- Title: How to Achieve the Intended Aim of Deep Clustering Now, without Deep Learning
- Title(参考訳): 深層クラスタリングの意図的目標を達成するには
- Authors: Kai Ming Ting, Wei-Jie Xu, Hang Zhang,
- Abstract要約: Deep Embedded Clusteringはオートエンコーダを通じて潜在表現を学び、$k$-meansライクなプロシージャに基づいてクラスタリングを実行する。
本稿では,DECが$k$-meansクラスタリングの基本的制約を克服できるかどうかを考察する。
- 参考スコア(独自算出の注目度): 9.022973688786545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep clustering (DC) is often quoted to have a key advantage over $k$-means clustering. Yet, this advantage is often demonstrated using image datasets only, and it is unclear whether it addresses the fundamental limitations of $k$-means clustering. Deep Embedded Clustering (DEC) learns a latent representation via an autoencoder and performs clustering based on a $k$-means-like procedure, while the optimization is conducted in an end-to-end manner. This paper investigates whether the deep-learned representation has enabled DEC to overcome the known fundamental limitations of $k$-means clustering, i.e., its inability to discover clusters of arbitrary shapes, varied sizes and densities. Our investigations on DEC have a wider implication on deep clustering methods in general. Notably, none of these methods exploit the underlying data distribution. We uncover that a non-deep learning approach achieves the intended aim of deep clustering by making use of distributional information of clusters in a dataset to effectively address these fundamental limitations.
- Abstract(参考訳): ディープクラスタリング(DC)はしばしば、$k$-meansクラスタリングよりも重要なアドバンテージを持つと引用される。
しかし、この利点はイメージデータセットのみを使用して実証されることも多く、$k$-meansクラスタリングの基本的な制限に対処するかどうかは不明だ。
Deep Embedded Clustering (DEC)はオートエンコーダを介して潜在表現を学び、$k$-meansライクなプロシージャに基づいてクラスタリングを行い、最適化はエンドツーエンドで実行される。
本稿では,DECが$k$-meansクラスタリングの既知の基本的な限界,すなわち任意の形状,サイズ,密度のクラスタを発見できないを克服できるかどうかを検討する。
DECに関する我々の研究は、ディープクラスタリング法全般に広く影響している。
注目すべきは、これらの手法が基盤となるデータ分散を利用することはないことだ。
我々は、データセット内のクラスタの分布情報を用いて、これらの基本的な制約を効果的に解決することで、ディープラーニング学習アプローチが深層クラスタリングの目的を達成することを明らかにした。
関連論文リスト
- K*-Means: A Parameter-free Clustering Algorithm [55.20132267309382]
k*-meansは、kや他のパラメータをセットする必要がない新しいクラスタリングアルゴリズムである。
最小記述長の原理を用いて、クラスタの分割とマージによって最適なクラスタ数k*を自動的に決定する。
k*-平均が収束することが保証されることを証明し、kが未知のシナリオにおいて既存のメソッドよりも著しく優れていることを実験的に証明する。
論文 参考訳(メタデータ) (2025-05-17T08:41:07Z) - Depth-Based Local Center Clustering: A Framework for Handling Different Clustering Scenarios [46.164361878412656]
クラスター分析は多くの科学・工学分野において重要な役割を担っている。
過去数十年にわたって提案されてきたクラスタリングメソッドにもかかわらず、それぞれのメソッドは通常、特定のシナリオのために設計されている。
本稿では,深度に基づくクラスタリング(DLCC)を提案する。
DLCCはデータのサブセットに基づくデータ深度のローカルバージョンを利用する
論文 参考訳(メタデータ) (2025-05-14T16:08:11Z) - Dying Clusters Is All You Need -- Deep Clustering With an Unknown Number of Clusters [5.507296054825372]
高次元データで有意義なグループを見つけることは、データマイニングにおいて重要な課題である。
深層クラスタリング手法はこれらの課題において顕著な成果を上げている。
これらのメソッドの多くは、事前にクラスタの数を指定する必要がある。
これは、ラベル付きデータが利用できない場合、クラスタの数は通常不明であるため、大きな制限となる。
これらのアプローチのほとんどは、クラスタリングプロセスから分離されたクラスタの数を見積もっています。
論文 参考訳(メタデータ) (2024-10-12T11:04:10Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - DivClust: Controlling Diversity in Deep Clustering [47.85350249697335]
DivClustはコンセンサスクラスタリングソリューションを生成し、単一クラスタリングベースラインを一貫して上回る。
提案手法は, フレームワークやデータセット間の多様性を, 計算コストを極めて小さく効果的に制御する。
論文 参考訳(メタデータ) (2023-04-03T14:45:43Z) - Asymptotics for The $k$-means [0.6091702876917281]
k$-meansは統計学と計算機科学において最も重要な教師なし学習手法の1つである。
提案したクラスタリング整合性は,クラスタリング手法の以前の基準整合性よりも適切である。
提案した$k$-means法はクラスタリングエラー率を低くし,小さなクラスタやアウトレイアに対してより堅牢であることがわかった。
論文 参考訳(メタデータ) (2022-11-18T03:36:58Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。