論文の概要: An Introductory Survey to Autoencoder-based Deep Clustering -- Sandboxes for Combining Clustering with Deep Learning
- arxiv url: http://arxiv.org/abs/2504.02087v1
- Date: Wed, 02 Apr 2025 19:46:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-12 00:42:28.021781
- Title: An Introductory Survey to Autoencoder-based Deep Clustering -- Sandboxes for Combining Clustering with Deep Learning
- Title(参考訳): 自動エンコーダに基づくディープクラスタリング入門調査 - クラスタリングとディープラーニングを組み合わせたサンドボックス
- Authors: Collin Leiber, Lukas Miklautz, Claudia Plant, Christian Böhm,
- Abstract要約: このサーベイは、基本的なオートエンコーダベースのディープクラスタリングアルゴリズムの紹介を提供する。
ディープラーニングとクラスタリングの組み合わせは、Deep Clusteringと呼ばれ、特定のクラスタリングタスクに適した表現を学ぶことができる。
- 参考スコア(独自算出の注目度): 15.388894407006852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoencoders offer a general way of learning low-dimensional, non-linear representations from data without labels. This is achieved without making any particular assumptions about the data type or other domain knowledge. The generality and domain agnosticism in combination with their simplicity make autoencoders a perfect sandbox for researching and developing novel (deep) clustering algorithms. Clustering methods group data based on similarity, a task that benefits from the lower-dimensional representation learned by an autoencoder, mitigating the curse of dimensionality. Specifically, the combination of deep learning with clustering, called Deep Clustering, enables to learn a representation tailored to specific clustering tasks, leading to high-quality results. This survey provides an introduction to fundamental autoencoder-based deep clustering algorithms that serve as building blocks for many modern approaches.
- Abstract(参考訳): オートエンコーダはラベルのないデータから低次元の非線形表現を学習する一般的な方法を提供する。
これは、データタイプや他のドメイン知識について特別な仮定をすることなく達成される。
汎用性とドメイン非依存性は、その単純さと組み合わせて、オートエンコーダを新しい(ディープ)クラスタリングアルゴリズムの研究と開発に最適なサンドボックスにする。
類似性に基づいたクラスタリング手法は、オートエンコーダによって学習された低次元表現の恩恵を受け、次元性の呪いを緩和するタスクである。
具体的には、Deep Clusteringと呼ばれるディープラーニングとクラスタリングの組み合わせによって、特定のクラスタリングタスクに適した表現を学ぶことができ、高品質な結果が得られる。
このサーベイは、多くの現代的なアプローチのビルディングブロックとして機能する、基本的なオートエンコーダベースのディープクラスタリングアルゴリズムの紹介を提供する。
関連論文リスト
- Autoencoded UMAP-Enhanced Clustering for Unsupervised Learning [49.1574468325115]
本稿では,低次元空間にデータを非線形に埋め込み,次に従来のクラスタリングアルゴリズムを用いて非教師なし学習を行う手法を提案する。
この埋め込みはデータのクラスタビリティを促進し、オートエンコーダニューラルネットワークのエンコーダとUMAPアルゴリズムの出力の2つのマッピングで構成されている。
MNISTデータに適用した場合、AUECはクラスタリング精度において最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2025-01-13T22:30:38Z) - Snapshot Spectral Clustering -- a costless approach to deep clustering
ensembles generation [0.0]
本稿では,新しいディープ・クラスタリング・アンサンブル法であるSnapshot Spectral Clusteringを提案する。
アンサンブルを作成する際の計算コストを最小化しながら、複数のデータビューを組み合わせることで得られる利益を最大化するように設計されている。
論文 参考訳(メタデータ) (2023-07-17T16:01:22Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - Seeking the Truth Beyond the Data. An Unsupervised Machine Learning
Approach [0.0]
クラスタリングは、ラベルのない要素/オブジェクトがグループ化される、教師なしの機械学習方法論である。
この記事では、最も広く使われているクラスタリング手法について詳しく説明する。
3つのデータセットに基づいて、これらのアルゴリズムのクラスタリング効率の比較を強調している。
論文 参考訳(メタデータ) (2022-07-14T14:22:36Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Mixture Model Auto-Encoders: Deep Clustering through Dictionary Learning [72.9458277424712]
Mixture Model Auto-Encoders (MixMate)は、生成モデルで推論を実行することでデータをクラスタリングする新しいアーキテクチャである。
最先端のディープクラスタリングアルゴリズムと比較して,MixMateは競争性能が高いことを示す。
論文 参考訳(メタデータ) (2021-10-10T02:30:31Z) - Decorrelating Adversarial Nets for Clustering Mobile Network Data [0.7034976835586089]
ディープラーニングのサブセットであるディープクラスタリングは、多くのネットワーク自動化ユースケースにとって価値のあるツールになり得る。
ほとんどの最先端のクラスタリングアルゴリズムはイメージデータセットをターゲットとしており、モバイルネットワークデータへの適用が困難です。
本稿では,ネットワーク自動化のユースケースに適用した場合にも,信頼性の高いディープクラスタリング手法であるDANCEを提案する。
論文 参考訳(メタデータ) (2021-03-11T15:26:26Z) - DAC: Deep Autoencoder-based Clustering, a General Deep Learning
Framework of Representation Learning [0.0]
dac,deep autoencoder-based clustering,深層ニューロンネットワークを用いてクラスタリング表現を学ぶためのデータ駆動フレームワークを提案する。
実験結果から,KMeansクラスタリングアルゴリズムの性能をさまざまなデータセット上で効果的に向上させることができた。
論文 参考訳(メタデータ) (2021-02-15T11:31:00Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。