論文の概要: GATCluster: Self-Supervised Gaussian-Attention Network for Image
Clustering
- arxiv url: http://arxiv.org/abs/2002.11863v2
- Date: Sat, 6 Jun 2020 20:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 08:23:50.734533
- Title: GATCluster: Self-Supervised Gaussian-Attention Network for Image
Clustering
- Title(参考訳): GATCluster:イメージクラスタリングのための自己監督型ガウスアテンションネットワーク
- Authors: Chuang Niu, Jun Zhang, Ge Wang, Jimin Liang
- Abstract要約: 画像クラスタリングのための自己教師型クラスタリングネットワーク(GATCluster)を提案する。
まず中間機能を抽出し、次に従来のクラスタリングを実行する代わりに、GATClusterセマンティッククラスタラベルを後処理なしで実行します。
大規模画像のクラスタリングにメモリ効率のよい2段階学習アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 9.722607434532883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a self-supervised Gaussian ATtention network for image Clustering
(GATCluster). Rather than extracting intermediate features first and then
performing the traditional clustering algorithm, GATCluster directly outputs
semantic cluster labels without further post-processing. Theoretically, we give
a Label Feature Theorem to guarantee the learned features are one-hot encoded
vectors, and the trivial solutions are avoided. To train the GATCluster in a
completely unsupervised manner, we design four self-learning tasks with the
constraints of transformation invariance, separability maximization, entropy
analysis, and attention mapping. Specifically, the transformation invariance
and separability maximization tasks learn the relationships between sample
pairs. The entropy analysis task aims to avoid trivial solutions. To capture
the object-oriented semantics, we design a self-supervised attention mechanism
that includes a parameterized attention module and a soft-attention loss. All
the guiding signals for clustering are self-generated during the training
process. Moreover, we develop a two-step learning algorithm that is
memory-efficient for clustering large-size images. Extensive experiments
demonstrate the superiority of our proposed method in comparison with the
state-of-the-art image clustering benchmarks. Our code has been made publicly
available at https://github.com/niuchuangnn/GATCluster.
- Abstract(参考訳): 画像クラスタリングのための自己教師付きガウスアテンションネットワーク(gatcluster)を提案する。
まず中間機能を抽出し、次に従来のクラスタリングアルゴリズムを実行する代わりに、gatclusterは、後処理なしでセマンティッククラスタラベルを直接出力する。
理論的には、学習した特徴が1ホットの符号化ベクトルであることを保証するためのラベル特徴定理を与え、自明な解は避ける。
GATClusterを完全に教師なしで訓練するために、変換不変性、分離可能性の最大化、エントロピー分析、アテンションマッピングの制約のある4つの自己学習タスクを設計する。
具体的には、変換不変性と分離可能性の最大化タスクがサンプルペア間の関係を学習する。
エントロピー解析タスクは、自明な解決を避けることを目的としている。
オブジェクト指向のセマンティクスを捉えるために,パラメータ化されたアテンションモジュールとソフトアテンション損失を含む自己監督型アテンション機構を設計する。
クラスタリングのための誘導信号はすべて、トレーニングプロセス中に自己生成される。
さらに,大規模画像のクラスタリングにメモリ効率のよい2段階学習アルゴリズムを開発した。
提案手法が最先端画像クラスタリングベンチマークと比較して優れていることを示す広範な実験を行った。
私たちのコードはhttps://github.com/niuchuangnn/GATCluster.comで公開されています。
関連論文リスト
- Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Image Clustering via the Principle of Rate Reduction in the Age of Pretrained Models [37.574691902971296]
本稿では,大規模事前学習モデルの強力な特徴表現を利用した画像クラスタリングパイプラインを提案する。
パイプラインは、CIFAR-10、CIFAR-100、ImageNet-1kなどの標準データセットでうまく動作することを示す。
論文 参考訳(メタデータ) (2023-06-08T15:20:27Z) - DeepCut: Unsupervised Segmentation using Graph Neural Networks
Clustering [6.447863458841379]
本研究では,従来のクラスタリング手法を置き換える軽量グラフニューラルネットワーク(GNN)を提案する。
既存の手法とは異なり、GNNはローカル画像特徴と生特徴とのペアワイズ親和性の両方を入力として取ります。
画像セグメンテーションGNNを訓練するための自己教師付き損失関数として,古典的クラスタリングの目的を定式化する方法を実証する。
論文 参考訳(メタデータ) (2022-12-12T12:31:46Z) - Dual Contrastive Attributed Graph Clustering Network [6.796682703663566]
我々はDCAGC(Dual Contrastive Attributed Graph Clustering Network)と呼ばれる汎用フレームワークを提案する。
DCAGCでは、近隣のコントラストモジュールを利用することで、近隣ノードの類似性を最大化し、ノード表現の品質を向上させる。
DCAGCのすべてのモジュールは、統一されたフレームワークでトレーニングされ、最適化されているため、学習されたノード表現にはクラスタリング指向のメッセージが含まれている。
論文 参考訳(メタデータ) (2022-06-16T03:17:01Z) - ClusterGNN: Cluster-based Coarse-to-Fine Graph Neural Network for
Efficient Feature Matching [15.620335576962475]
ClusterGNNは、特徴マッチングタスクを学習するためのクラスタで動作する、注目のGNNアーキテクチャである。
提案手法では,59.7%のランタイム削減,58.4%のメモリ消費削減を実現している。
論文 参考訳(メタデータ) (2022-04-25T14:43:15Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Online Deep Clustering for Unsupervised Representation Learning [108.33534231219464]
オンラインディープクラスタリング(ODC)は、交互にではなく、クラスタリングとネットワーク更新を同時に実行する。
我々は,2つの動的メモリモジュール,すなわち,サンプルラベルと特徴を格納するサンプルメモリと,セントロイド進化のためのセントロイドメモリを設計,維持する。
このように、ラベルとネットワークは交互にではなく肩から肩へと進化する。
論文 参考訳(メタデータ) (2020-06-18T16:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。