論文の概要: Multi-level Feature Learning on Embedding Layer of Convolutional
Autoencoders and Deep Inverse Feature Learning for Image Clustering
- arxiv url: http://arxiv.org/abs/2010.02343v1
- Date: Mon, 5 Oct 2020 21:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 20:55:48.095296
- Title: Multi-level Feature Learning on Embedding Layer of Convolutional
Autoencoders and Deep Inverse Feature Learning for Image Clustering
- Title(参考訳): 畳み込みオートエンコーダの埋め込み層における多レベル特徴学習と画像クラスタリングのための深い逆特徴学習
- Authors: Behzad Ghazanfari, Fatemeh Afghah
- Abstract要約: 我々は集合的クラスタリングを多段階の特徴学習として使用し、潜在的特徴空間の階層構造を提供する。
マルチレベル機能学習を適用することで、基本的な深層畳み込みクラスタリングが大幅に改善される。
CAE-MLEの深い逆特徴学習(Deep IFL)は、最先端の結果につながる新しいアプローチである。
- 参考スコア(独自算出の注目度): 6.5358895450258325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Multi-Level feature learning alongside the Embedding
layer of Convolutional Autoencoder (CAE-MLE) as a novel approach in deep
clustering. We use agglomerative clustering as the multi-level feature learning
that provides a hierarchical structure on the latent feature space. It is shown
that applying multi-level feature learning considerably improves the basic deep
convolutional embedding clustering (DCEC). CAE-MLE considers the clustering
loss of agglomerative clustering simultaneously alongside the learning latent
feature of CAE. In the following of the previous works in inverse feature
learning, we show that the representation of learning of error as a general
strategy can be applied on different deep clustering approaches and it leads to
promising results. We develop deep inverse feature learning (deep IFL) on
CAE-MLE as a novel approach that leads to the state-of-the-art results among
the same category methods. The experimental results show that the CAE-MLE
improves the results of the basic method, DCEC, around 7% -14% on two
well-known datasets of MNIST and USPS. Also, it is shown that the proposed deep
IFL improves the primary results about 9%-17%. Therefore, both proposed
approaches of CAE-MLE and deep IFL based on CAE-MLE can lead to notable
performance improvement in comparison to the majority of existing techniques.
The proposed approaches while are based on a basic convolutional autoencoder
lead to outstanding results even in comparison to variational autoencoders or
generative adversarial networks.
- Abstract(参考訳): 本稿では、深層クラスタリングにおける新しいアプローチとして、畳み込み型自動エンコーダ(CAE-MLE)の埋め込み層と共にマルチレベル特徴学習を導入する。
我々は,潜在的な特徴空間の階層構造を提供するマルチレベル特徴学習として凝集型クラスタリングを用いる。
マルチレベル特徴学習の適用により,基本的な深層畳み込みクラスタリング(DCEC)が大幅に向上することが示されている。
CAE-MLEは、集合的クラスタリングのクラスタリング損失を、CAEの学習潜在機能と同時に考慮している。
逆特徴学習における先行研究の次の例では、エラー学習の一般的な戦略としての表現が、異なる深層クラスタリングアプローチに適用可能であることを示し、有望な結果をもたらす。
我々は, CAE-MLE を用いた深層逆特徴学習 (deep IFL) を, 同じカテゴリの手法の最先端結果につながる新しいアプローチとして開発する。
実験の結果,cae-mle は mnist と usps の 2 つの既知のデータセット上で約 7% -14% の 基本法 dcec の結果を改善した。
また,提案した深部IFLでは,9%~17%の改善が認められた。
したがって, CAE-MLE と CAE-MLE に基づく深層 IFL の両手法は, 既存の技術と比較して顕著な性能向上をもたらす可能性がある。
提案手法は,基本的畳み込みオートエンコーダをベースとして,変分オートエンコーダや生成逆数ネットワークと比較しても優れた結果をもたらす。
関連論文リスト
- Unfolding ADMM for Enhanced Subspace Clustering of Hyperspectral Images [43.152314090830174]
本稿では,スパースサブスペースクラスタリングのためのマルチプライヤの交互方向法(ADMM)に基づく反復解法を展開させることにより,ハイパースペクトル画像(HSI)のための革新的なクラスタリングアーキテクチャを提案する。
提案手法は, 構造保存モジュールの一部として, K近傍近傍のアルゴリズムを用いて, HSIデータの構造特性をよく把握する。
論文 参考訳(メタデータ) (2024-04-10T15:51:46Z) - FedAC: An Adaptive Clustered Federated Learning Framework for Heterogeneous Data [21.341280782748278]
クラスタ化フェデレーション学習(CFL)は、データ不均一性から生じる性能劣化を軽減するために提案される。
我々は,グローバル知識をクラスタ内学習に効率的に統合する適応型CFLフレームワークFedACを提案する。
実験の結果、FedACは試験精度が1.82%、12.67%向上した。
論文 参考訳(メタデータ) (2024-03-25T06:43:28Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - ConvBLS: An Effective and Efficient Incremental Convolutional Broad
Learning System for Image Classification [63.49762079000726]
球状K-means(SKM)アルゴリズムと2段階マルチスケール(TSMS)機能融合に基づく畳み込み広範学習システム(ConvBLS)を提案する。
提案手法は前代未聞の効率的かつ効果的である。
論文 参考訳(メタデータ) (2023-04-01T04:16:12Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Deep clustering with fusion autoencoder [0.0]
ディープクラスタリング(DC)モデルは、オートエンコーダを利用して、結果としてクラスタリングプロセスを促進する固有の特徴を学ぶ。
本稿では、この問題に対処するための新しいDC法を提案し、特に、生成逆数ネットワークとVAEを融合オートエンコーダ(FAE)と呼ばれる新しいオートエンコーダに結合する。
論文 参考訳(メタデータ) (2022-01-11T07:38:03Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Cluster Analysis with Deep Embeddings and Contrastive Learning [0.0]
本研究は,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法では,クラスタセンターの表現をエンドツーエンドで学習し,予測する。
我々のフレームワークは広く受け入れられているクラスタリング手法と同等に動作し、CIFAR-10データセット上で最先端のコントラスト学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-26T22:18:15Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。