論文の概要: Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks
- arxiv url: http://arxiv.org/abs/2207.07173v2
- Date: Mon, 16 Oct 2023 17:48:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 06:58:06.536752
- Title: Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks
- Title(参考訳): コントラスト学習と多スケールグラフ畳み込みネットワークを用いた深部画像クラスタリング
- Authors: Yuankun Xu, Dong Huang, Chang-Dong Wang, Jian-Huang Lai
- Abstract要約: コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
- 参考スコア(独自算出の注目度): 58.868899595936476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep clustering has shown its promising capability in joint representation
learning and clustering via deep neural networks. Despite the significant
progress, the existing deep clustering works mostly utilize some
distribution-based clustering loss, lacking the ability to unify representation
learning and multi-scale structure learning. To address this, this paper
presents a new deep clustering approach termed image clustering with
contrastive learning and multi-scale graph convolutional networks (IcicleGCN),
which bridges the gap between convolutional neural network (CNN) and graph
convolutional network (GCN) as well as the gap between contrastive learning and
multi-scale structure learning for the deep clustering task. Our framework
consists of four main modules, namely, the CNN-based backbone, the Instance
Similarity Module (ISM), the Joint Cluster Structure Learning and Instance
reconstruction Module (JC-SLIM), and the Multi-scale GCN module (M-GCN).
Specifically, the backbone network with two weight-sharing views is utilized to
learn the representations for the two augmented samples (from each image). The
learned representations are then fed to ISM and JC-SLIM for joint
instance-level and cluster-level contrastive learning, respectively, during
which an auto-encoder in JC-SLIM is also pretrained to serve as a bridge to the
M-GCN module. Further, to enforce multi-scale neighborhood structure learning,
two streams of GCNs and the auto-encoder are simultaneously trained via (i) the
layer-wise interaction with representation fusion and (ii) the joint
self-adaptive learning. Experiments on multiple image datasets demonstrate the
superior clustering performance of IcicleGCN over the state-of-the-art. The
code is available at https://github.com/xuyuankun631/IcicleGCN.
- Abstract(参考訳): ディープクラスタリングは、ディープニューラルネットワークによる共同表現学習とクラスタリングにおいて有望な能力を示している。
この大きな進歩にもかかわらず、既存のディープクラスタリングは主に分散ベースのクラスタリング損失を利用しており、表現学習とマルチスケール構造学習を統合する能力が欠如している。
そこで本論文では,畳み込みニューラルネットワーク(CNN)とグラフ畳み込みネットワーク(GCN)のギャップを埋める,コントラスト学習とマルチスケール構造学習のギャップを埋める,コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
このフレームワークは、cnnベースのバックボーン、インスタンス類似モジュール(ism)、jc-slim(joint cluster structure learning and instance reconstruction module)、マルチスケールgcnモジュール(m-gcn)の4つの主要なモジュールから構成されている。
具体的には、2つの重み共有ビューを持つバックボーンネットワークを用いて、2つの強化サンプル(各画像から)の表現を学習する。
次に、JC-SLIMにおけるオートエンコーダが、M-GCNモジュールへのブリッジとして機能するように事前訓練される、連立インスタンスレベルとクラスタレベルのコントラスト学習のためのISMとJC-SLIMに、学習された表現が供給される。
さらに、マルチスケールな近隣構造学習を実施するために、GCNとオートエンコーダの2つのストリームを同時にトレーニングする。
一 表象融合及び表象融合との層間相互作用
(ii)共同自己適応学習。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
コードはhttps://github.com/xuyuankun631/IcicleGCNで入手できる。
関連論文リスト
- Deep Dependency Networks for Multi-Label Classification [24.24496964886951]
マルコフ確率場とニューラルネットワークを組み合わせた従来の手法の性能は、わずかに改善できることを示す。
我々は、依存性ネットワークを拡張するディープ依存ネットワークと呼ばれる新しいモデリングフレームワークを提案する。
単純さにもかかわらず、この新しいアーキテクチャを共同学習することで、パフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2023-02-01T17:52:40Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Sparse Coding Driven Deep Decision Tree Ensembles for Nuclear
Segmentation in Digital Pathology Images [15.236873250912062]
デジタル病理画像セグメンテーションタスクにおいて、ディープニューラルネットワークと高い競争力を持つ、容易に訓練されながら強力な表現学習手法を提案する。
ScD2TEと略すこの手法はスパースコーディング駆動の深層決定木アンサンブルと呼ばれ、表現学習の新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-13T02:59:31Z) - Structural Deep Clustering Network [45.370272344031285]
本研究では,構造情報を深層クラスタリングに統合する構造深層クラスタリングネットワーク(SDCN)を提案する。
具体的には、オートエンコーダが学習した表現を対応するGCN層に転送するデリバリ演算子を設計する。
このように、低次から高次までの複数のデータ構造は、オートエンコーダによって学習された複数の表現と自然に結合される。
論文 参考訳(メタデータ) (2020-02-05T04:33:40Z) - CSNNs: Unsupervised, Backpropagation-free Convolutional Neural Networks
for Representation Learning [0.0]
この作業は、畳み込みニューラルネットワーク(CNN)と、自己組織化マップ(SOM)とHebbian Learningによるクラスタリングを組み合わせて、畳み込み自己組織化ニューラルネットワーク(CSNN)の構築ブロックを提案する。
提案手法は,従来のCNNからの畳み込みレイヤの学習をSOMの競合的学習手順に置き換えるとともに,各レイヤ間の局所マスクをヘビアン様の学習規則で同時に学習することにより,クラスタリングによってフィルタが学習されるときの変動要因の解消を克服する。
論文 参考訳(メタデータ) (2020-01-28T14:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。