論文の概要: AutoEmbedder: A semi-supervised DNN embedding system for clustering
- arxiv url: http://arxiv.org/abs/2007.05830v1
- Date: Sat, 11 Jul 2020 19:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 12:49:06.932709
- Title: AutoEmbedder: A semi-supervised DNN embedding system for clustering
- Title(参考訳): AutoEmbedder:クラスタリングのための半教師付きDNN埋め込みシステム
- Authors: Abu Quwsar Ohi, M. F. Mridha, Farisa Benta Safir, Md. Abdul Hamid,
Muhammad Mostafa Monowar
- Abstract要約: 本稿では,高次元データをクラスタリング可能な埋め込みポイントにダウンサンプリングする,AutoEmbedderという新しい埋め込みシステムを提案する。
トレーニングプロセスは半教師付きで、Siameseネットワークアーキテクチャを使用して、機能学習フェーズにおけるペアワイズ制約損失を計算します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering is widely used in unsupervised learning method that deals with
unlabeled data. Deep clustering has become a popular study area that relates
clustering with Deep Neural Network (DNN) architecture. Deep clustering method
downsamples high dimensional data, which may also relate clustering loss. Deep
clustering is also introduced in semi-supervised learning (SSL). Most SSL
methods depend on pairwise constraint information, which is a matrix containing
knowledge if data pairs can be in the same cluster or not. This paper
introduces a novel embedding system named AutoEmbedder, that downsamples higher
dimensional data to clusterable embedding points. To the best of our knowledge,
this is the first research endeavor that relates to traditional classifier DNN
architecture with a pairwise loss reduction technique. The training process is
semi-supervised and uses Siamese network architecture to compute pairwise
constraint loss in the feature learning phase. The AutoEmbedder outperforms
most of the existing DNN based semi-supervised methods tested on famous
datasets.
- Abstract(参考訳): クラスタリングは、ラベルのないデータを扱う教師なし学習法で広く使われている。
ディープクラスタリングは、ディープニューラルネットワーク(dnn)アーキテクチャによるクラスタリングに関連する一般的な研究領域となっている。
ディープクラスタリング法は、クラスタリング損失を関連付けた高次元データをサンプリングする。
深層クラスタリングは半教師付き学習(SSL)にも導入されている。
ほとんどのSSLメソッドはペアの制約情報に依存しており、同じクラスタにデータペアがあるかどうかの知識を含むマトリックスである。
本稿では,高次元データをクラスタリング可能な埋め込みポイントにダウンサンプリングする,AutoEmbedderという新しい埋め込みシステムを提案する。
私たちの知る限りでは、これは従来の分類器dnnアーキテクチャとペアワイズ損失削減技術に関連する最初の研究成果です。
トレーニングプロセスは半教師あり、Siameseネットワークアーキテクチャを使用して、機能学習フェーズにおけるペアワイズ制約損失を計算する。
AutoEmbedderは、有名なデータセットでテストされた既存のDNNベースの半教師付きメソッドよりも優れています。
関連論文リスト
- XAI for Self-supervised Clustering of Wireless Spectrum Activity [0.5809784853115825]
本稿では,深層クラスタリング,自己教師型学習アーキテクチャの方法論を提案する。
表現学習部では,入力データの関心領域の解釈にガイドバックプロパゲーションを用いる。
クラスタリングの部分は、クラスタリングの結果を説明するために、Shallow Treesに依存しています。
最後に、データ固有の視覚化部は、各クラスタと入力データとの接続を関連機能をトラフすることを可能にする。
論文 参考訳(メタデータ) (2023-05-17T08:56:43Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - DRBM-ClustNet: A Deep Restricted Boltzmann-Kohonen Architecture for Data
Clustering [0.0]
DRBM-ClustNetと呼ばれるデータクラスタリングのためのベイジアンDeep Restricted Boltzmann-Kohonenアーキテクチャを提案する。
ラベルなしデータの処理は、非線形分離可能なデータセットの効率的なクラスタリングのために、3段階に分けて行われる。
このフレームワークはクラスタリングの精度に基づいて評価され、他の最先端クラスタリング手法と比較してランク付けされる。
論文 参考訳(メタデータ) (2022-05-13T15:12:18Z) - Selective Pseudo-label Clustering [42.19193184852487]
ディープニューラルネットワーク(DNN)は、高次元データをクラスタリングする困難なタスクに対処する手段を提供する。
DNNのトレーニングに最も自信のある擬似ラベルのみを用いる選択的擬似ラベルクラスタリングを提案する。
新しいアプローチは、3つの人気のある画像データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-22T13:56:53Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Robust Self-Supervised Convolutional Neural Network for Subspace
Clustering and Classification [0.10152838128195464]
本稿では,自己管理型畳み込みサブスペースクラスタリングネットワーク(S2$ConvSCN)のロバストな定式化を提案する。
真の教師なしのトレーニング環境では、Robust $S2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。
論文 参考訳(メタデータ) (2020-04-03T16:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。