論文の概要: Contrastive Hierarchical Clustering
- arxiv url: http://arxiv.org/abs/2303.03389v2
- Date: Wed, 21 Jun 2023 16:37:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 17:34:17.029609
- Title: Contrastive Hierarchical Clustering
- Title(参考訳): 対照的な階層的クラスタリング
- Authors: Micha{\l} Znale\'zniak, Przemys{\l}aw Rola, Patryk Kaszuba, Jacek
Tabor, Marek \'Smieja
- Abstract要約: CoHiClustは、ディープニューラルネットワークに基づくContrastive Hierarchical Clusteringモデルである。
自己教師付き学習アプローチを採用することで、CoHiClustは、ラベル付きデータにアクセスせずに、ベースネットワークをバイナリツリーに蒸留する。
- 参考スコア(独自算出の注目度): 8.068701201341065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep clustering has been dominated by flat models, which split a dataset into
a predefined number of groups. Although recent methods achieve an extremely
high similarity with the ground truth on popular benchmarks, the information
contained in the flat partition is limited. In this paper, we introduce
CoHiClust, a Contrastive Hierarchical Clustering model based on deep neural
networks, which can be applied to typical image data. By employing a
self-supervised learning approach, CoHiClust distills the base network into a
binary tree without access to any labeled data. The hierarchical clustering
structure can be used to analyze the relationship between clusters, as well as
to measure the similarity between data points. Experiments demonstrate that
CoHiClust generates a reasonable structure of clusters, which is consistent
with our intuition and image semantics. Moreover, it obtains superior
clustering accuracy on most of the image datasets compared to the
state-of-the-art flat clustering models.
- Abstract(参考訳): ディープクラスタリングは、データセットを予め定義された数のグループに分割するフラットモデルによって支配されている。
最近の手法は、一般的なベンチマークで基底真理と非常に高い類似性を達成しているが、フラットパーティションに含まれる情報は限られている。
本稿では,一般的な画像データに適用可能な,ディープニューラルネットワークに基づく階層的クラスタリングモデルであるcohiclustを提案する。
自己教師付き学習アプローチを採用することで、cohiclustはラベル付きデータにアクセスせずにベースネットワークをバイナリツリーに蒸留する。
階層的クラスタリング構造は、クラスタ間の関係を解析したり、データポイント間の類似性を測定するために使用することができる。
実験では、cohiclustがクラスタの合理的な構造を生成していることが示されています。
さらに,最先端のフラットクラスタリングモデルと比較して,ほとんどの画像データセットにおいて優れたクラスタリング精度が得られる。
関連論文リスト
- Probing clustering in neural network representations [30.640266399583613]
ニューラルネットワークトレーニングにおける多くの設計選択が、隠れた表現で形成されたクラスタにどのように影響するかを検討する。
トレーニングデータセットとアーキテクチャを、クラスタビリティに影響を及ぼす重要な要因として分離します。
正規化戦略はどの層が最高のクラスタリング性能をもたらすかに影響します。
論文 参考訳(メタデータ) (2023-11-14T02:33:54Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Anomaly Clustering: Grouping Images into Coherent Clusters of Anomaly
Types [60.45942774425782]
我々は異常クラスタリングを導入し、その目標はデータを異常型の一貫性のあるクラスタにまとめることである。
これは異常検出とは違い、その目標は異常を通常のデータから分割することである。
パッチベースの事前訓練されたディープ埋め込みとオフザシェルフクラスタリング手法を用いた,単純で効果的なクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-21T23:11:33Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。