論文の概要: Variational Auto Encoder Gradient Clustering
- arxiv url: http://arxiv.org/abs/2105.06246v1
- Date: Tue, 11 May 2021 08:00:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 04:30:30.026521
- Title: Variational Auto Encoder Gradient Clustering
- Title(参考訳): 変分オートエンコーダの勾配クラスタリング
- Authors: Adam Lindhe, Carl Ringqvist and Henrik Hult
- Abstract要約: 近年,ディープニューラルネットワークモデルを用いたクラスタリングが広く研究されている。
本稿では、より良いクラスタリングを実現するために確率関数勾配上昇を使用してデータを処理する方法を検討する。
DBSCANクラスタリングアルゴリズムに基づいて,データに適したクラスタ数を調べるための簡便かつ効果的な方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering using deep neural network models have been extensively studied in
recent years. Among the most popular frameworks are the VAE and GAN frameworks,
which learns latent feature representations of data through encoder / decoder
neural net structures. This is a suitable base for clustering tasks, as the
latent space often seems to effectively capture the inherent essence of data,
simplifying its manifold and reducing noise. In this article, the VAE framework
is used to investigate how probability function gradient ascent over data
points can be used to process data in order to achieve better clustering.
Improvements in classification is observed comparing with unprocessed data,
although state of the art results are not obtained. Processing data with
gradient descent however results in more distinct cluster separation, making it
simpler to investigate suitable hyper parameter settings such as the number of
clusters. We propose a simple yet effective method for investigating suitable
number of clusters for data, based on the DBSCAN clustering algorithm, and
demonstrate that cluster number determination is facilitated with gradient
processing. As an additional curiosity, we find that our baseline model used
for comparison; a GMM on a t-SNE latent space for a VAE structure with weight
one on reconstruction during training (autoencoder), yield state of the art
results on the MNIST data, to our knowledge not beaten by any other existing
model.
- Abstract(参考訳): 近年,ディープニューラルネットワークモデルを用いたクラスタリングが広く研究されている。
最も人気のあるフレームワークはvaeとganフレームワークで、エンコーダ/デコーダニューラルネットワーク構造を通じてデータの潜在的な特徴表現を学ぶ。
これはクラスタリングタスクに適した基盤であり、潜在空間はデータの本質を効果的に捉え、その多様体を単純化し、ノイズを減らすように思われる。
本稿では,より優れたクラスタリングを実現するために,データポイント上の確率関数勾配を用いてデータを処理する方法について検討する。
分類の改善は未処理のデータと比較して観察されるが、成果は得られない。
しかし、勾配降下でデータを処理すると、クラスタの分離がより明確になり、クラスタ数などの適切なハイパーパラメータの設定を調べるのがより簡単になる。
dbscanクラスタリングアルゴリズムに基づいて,データに適したクラスタ数を調べるための簡易かつ効果的な手法を提案し,勾配処理によりクラスタ数決定が容易になることを示す。
付加的な好奇心として、我々のベースラインモデルは、トレーニング中の再構築(オートエンコーダ)における重み付きVAE構造に対するt-SNE潜在空間上のGMMと、MNISTデータに基づくアート結果の出力状態と、既存のモデルに勝たない知識とを比較した。
関連論文リスト
- Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Contrastive Hierarchical Clustering [8.068701201341065]
CoHiClustは、ディープニューラルネットワークに基づくContrastive Hierarchical Clusteringモデルである。
自己教師付き学習アプローチを採用することで、CoHiClustは、ラベル付きデータにアクセスせずに、ベースネットワークをバイナリツリーに蒸留する。
論文 参考訳(メタデータ) (2023-03-03T07:54:19Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - DRBM-ClustNet: A Deep Restricted Boltzmann-Kohonen Architecture for Data
Clustering [0.0]
DRBM-ClustNetと呼ばれるデータクラスタリングのためのベイジアンDeep Restricted Boltzmann-Kohonenアーキテクチャを提案する。
ラベルなしデータの処理は、非線形分離可能なデータセットの効率的なクラスタリングのために、3段階に分けて行われる。
このフレームワークはクラスタリングの精度に基づいて評価され、他の最先端クラスタリング手法と比較してランク付けされる。
論文 参考訳(メタデータ) (2022-05-13T15:12:18Z) - Efficient Cluster-Based k-Nearest-Neighbor Machine Translation [65.69742565855395]
k-Nearest-Neighbor Machine Translation (kNN-MT)は、最近、ニューラルネットワーク翻訳(NMT)におけるドメイン適応のための非パラメトリックソリューションとして提案されている。
論文 参考訳(メタデータ) (2022-04-13T05:46:31Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Meta-learning representations for clustering with infinite Gaussian
mixture models [39.56814839510978]
クラスタリング性能を向上させるためにニューラルネットワークを訓練するメタラーニング手法を提案する。
提案手法は,非ラベルデータとは異なるラベルデータを用いた知識メタ学習を用いて,未ラベルデータをクラスタ化することができる。
論文 参考訳(メタデータ) (2021-03-01T02:05:31Z) - Progressive Cluster Purification for Unsupervised Feature Learning [48.87365358296371]
教師なしの特徴学習では、サンプル特異性に基づく手法はクラス間の情報を無視する。
本稿では,プログレッシブクラスタ形成時にクラス不整合サンプルを除外するクラスタリングに基づく新しい手法を提案する。
我々の手法は、プログレッシブ・クラスタ・パーフィケーション(PCP)と呼ばれ、訓練中に徐々にクラスタ数を減らし、プログレッシブ・クラスタリングを実装している。
論文 参考訳(メタデータ) (2020-07-06T08:11:03Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。