論文の概要: Representation Learning for Clustering via Building Consensus
- arxiv url: http://arxiv.org/abs/2105.01289v1
- Date: Tue, 4 May 2021 05:04:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 19:06:10.050894
- Title: Representation Learning for Clustering via Building Consensus
- Title(参考訳): コンセンサス構築によるクラスタリングのための表現学習
- Authors: Aniket Anand Deshmukh, Jayanth Reddy Regatti, Eren Manavoglu, and Urun
Dogan
- Abstract要約: Unsupervised Representation Learning (ConCURL) を用いたコンセンサスクラスタリングの提案
ConCURLは5つのイメージデータセットのうち4つで、最先端のメソッドよりもクラスタリングパフォーマンスが向上する。
実世界のクラスタリングタスクにおける課題を反映するために,クラスタリングの評価手順を拡張した。
- 参考スコア(独自算出の注目度): 3.7434090710577608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we focus on deep clustering and unsupervised representation
learning for images. Recent advances in deep clustering and unsupervised
representation learning are based on the idea that different views of an input
image (generated through data augmentation techniques) must be closer in the
representation space (exemplar consistency), and/or similar images have a
similar cluster assignment (population consistency). We define an additional
notion of consistency, consensus consistency, which ensures that
representations are learnt to induce similar partitions for variations in the
representation space, different clustering algorithms or different
initializations of a clustering algorithm. We define a clustering loss by
performing variations in the representation space and seamlessly integrate all
three consistencies (consensus, exemplar and population) into an end-to-end
learning framework. The proposed algorithm, Consensus Clustering using
Unsupervised Representation Learning (ConCURL) improves the clustering
performance over state-of-the art methods on four out of five image datasets.
Further, we extend the evaluation procedure for clustering to reflect the
challenges in real world clustering tasks, such as clustering performance in
the case of distribution shift. We also perform a detailed ablation study for a
deeper understanding of the algorithm.
- Abstract(参考訳): 本稿では,画像の深層クラスタリングと教師なし表現学習に着目した。
深層クラスタリングと教師なし表現学習の最近の進歩は、入力画像の異なるビュー(データ拡張技術によって生成される)が表現空間(例:一貫性)に近づき、/または類似の画像が類似のクラスタ割り当て(親和性)を持つという考え方に基づいている。
一貫性,コンセンサス一貫性という新たな概念を定義し,表現空間の変化,クラスタリングアルゴリズムの違い,クラスタリングアルゴリズムの異なる初期化に対して,表現が類似した分割を誘導することを保証する。
表現空間のバリエーションを施すことでクラスタリング損失を定義し,3つの構成要素(合意,模範,集団)をエンドツーエンドの学習フレームワークにシームレスに統合する。
提案アルゴリズムであるConsensus Clustering using Unsupervised Representation Learning (ConCURL)は,5つの画像データセットのうち4つに対して,最先端の手法によるクラスタリング性能を向上させる。
さらに,分散シフト時のクラスタリング性能など,実世界のクラスタリングタスクにおける課題を反映するために,クラスタリングの評価手順を拡張する。
また,アルゴリズムのより深い理解のために,詳細なアブレーション研究を行う。
関連論文リスト
- Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Deep Clustering With Consensus Representations [10.058084837348366]
異種クラスタリングにおけるコンセンサス表現の学習という概念を導入し,コンセンサスクラスタリングにアプローチする新しい概念を提案する。
複数の異種クラスタリングアルゴリズムの表現とクラスタリング結果を共同で改善する,最初のディープクラスタリング手法であるDECCSを提案する。
論文 参考訳(メタデータ) (2022-10-13T14:40:48Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Learning the Precise Feature for Cluster Assignment [39.320210567860485]
表現学習とクラスタリングを1つのパイプラインに初めて統合するフレームワークを提案する。
提案フレームワークは,近年開発された生成モデルを用いて,本質的な特徴を学習する能力を活用している。
実験の結果,提案手法の性能は,最先端の手法よりも優れているか,少なくとも同等であることがわかった。
論文 参考訳(メタデータ) (2021-06-11T04:08:54Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Unsupervised Visual Representation Learning by Online Constrained
K-Means [44.38989920488318]
クラスタ識別は、教師なし表現学習の効果的な前提課題である。
オンラインtextbfConstrained textbfK-mtextbfeans (textbfCoKe) を用いたクラスタリングに基づく新しいプリテキストタスクを提案する。
当社のオンライン割当て方式は,グローバルな最適化に近づくための理論的保証を持っている。
論文 参考訳(メタデータ) (2021-05-24T20:38:32Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Consensus Clustering With Unsupervised Representation Learning [4.164845768197489]
我々はBootstrap Your Own Latent(BYOL)のクラスタリング能力について検討し、BYOLを使って学習した機能がクラスタリングに最適でないことを観察する。
本稿では,新たなコンセンサスクラスタリングに基づく損失関数を提案するとともに,クラスタリング能力を改善し,類似のクラスタリングに基づく手法より優れたBYOLをエンド・ツー・エンドで学習する。
論文 参考訳(メタデータ) (2020-10-03T01:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。