論文の概要: DeepDPM: Deep Clustering With an Unknown Number of Clusters
- arxiv url: http://arxiv.org/abs/2203.14309v1
- Date: Sun, 27 Mar 2022 14:11:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:40:10.210428
- Title: DeepDPM: Deep Clustering With an Unknown Number of Clusters
- Title(参考訳): DeepDPM: 未知の数のクラスタによるディープクラスタリング
- Authors: Meitar Ronen, Shahaf E. Finder, Oren Freifeld
- Abstract要約: 学習中にKの値を知る必要のない効果的な深層クラスタリング手法を提案する。
分割/マージフレームワーク, 変化Kに適応する動的アーキテクチャ, 新たな損失を用いて, 提案手法は既存の非パラメトリック手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 6.0803541683577444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning (DL) has shown great promise in the unsupervised task of
clustering. That said, while in classical (i.e., non-deep) clustering the
benefits of the nonparametric approach are well known, most deep-clustering
methods are parametric: namely, they require a predefined and fixed number of
clusters, denoted by K. When K is unknown, however, using model-selection
criteria to choose its optimal value might become computationally expensive,
especially in DL as the training process would have to be repeated numerous
times. In this work, we bridge this gap by introducing an effective
deep-clustering method that does not require knowing the value of K as it
infers it during the learning. Using a split/merge framework, a dynamic
architecture that adapts to the changing K, and a novel loss, our proposed
method outperforms existing nonparametric methods (both classical and deep
ones). While the very few existing deep nonparametric methods lack scalability,
we demonstrate ours by being the first to report the performance of such a
method on ImageNet. We also demonstrate the importance of inferring K by
showing how methods that fix it deteriorate in performance when their assumed K
value gets further from the ground-truth one, especially on imbalanced
datasets. Our code is available at https://github.com/BGU-CS-VIL/DeepDPM.
- Abstract(参考訳): ディープラーニング(DL)はクラスタリングの教師なしタスクにおいて大きな可能性を示しています。
とは言っても、古典的な(すなわち、非ディープな)クラスタリングでは、非パラメトリックアプローチの利点はよく知られているが、ほとんどのディープクラスタリング手法はパラメトリックである:すなわち、Kで表される事前定義された固定数のクラスタを必要とする。
本研究では,学習中にKの価値を知る必要のない効果的な深層クラスタリング手法を導入することにより,このギャップを埋める。
スプリット/マージフレームワーク、変化するkに適応する動的アーキテクチャ、そして新しい損失を用いて、提案手法は既存の非パラメトリックメソッド(古典的メソッドと深層メソッドの両方)を上回る。
既存の非常に深い非パラメトリックなメソッドはスケーラビリティを欠いているが、imagenetでそのようなメソッドのパフォーマンスを最初に報告することで、我々の成果を実証する。
また、特に不均衡データセットにおいて、仮定されたk値が基底値よりさらに大きくなると性能が低下する手法を示すことにより、kを推測することの重要性を実証する。
私たちのコードはhttps://github.com/BGU-CS-VIL/DeepDPMで利用可能です。
関連論文リスト
- Dying Clusters Is All You Need -- Deep Clustering With an Unknown Number of Clusters [5.507296054825372]
高次元データで有意義なグループを見つけることは、データマイニングにおいて重要な課題である。
深層クラスタリング手法はこれらの課題において顕著な成果を上げている。
これらのメソッドの多くは、事前にクラスタの数を指定する必要がある。
これは、ラベル付きデータが利用できない場合、クラスタの数は通常不明であるため、大きな制限となる。
これらのアプローチのほとんどは、クラスタリングプロセスから分離されたクラスタの数を見積もっています。
論文 参考訳(メタデータ) (2024-10-12T11:04:10Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - A Deep Dive into Deep Cluster [0.2578242050187029]
DeepClusterは、ビジュアル表現のシンプルでスケーラブルな教師なし事前トレーニングである。
本稿では,DeepClusterの収束と性能が,畳み込み層のランダムフィルタの品質と選択されたクラスタ数の相互作用に依存することを示す。
論文 参考訳(メタデータ) (2022-07-24T22:55:09Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - ThetA -- fast and robust clustering via a distance parameter [3.0020405188885815]
クラスタリングは機械学習の根本的な問題であり、遠隔ベースのアプローチが数十年にわたってこの分野を支配してきた。
Theta-based Algorithms (ThetA) と呼ばれる新しい距離しきい値法を提案する。
論文 参考訳(メタデータ) (2021-02-13T23:16:33Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。