論文の概要: Evolving Restricted Boltzmann Machine-Kohonen Network for Online
Clustering
- arxiv url: http://arxiv.org/abs/2402.09167v1
- Date: Wed, 14 Feb 2024 13:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 15:31:23.845278
- Title: Evolving Restricted Boltzmann Machine-Kohonen Network for Online
Clustering
- Title(参考訳): オンラインクラスタリングのためのboltzmann machine-kohonenネットワークの進化
- Authors: J. Senthilnath, Adithya Bhattiprolu, Ankur Singh, Bangjian Zhou, Min
Wu, J\'on Atli Benediktsson, Xiaoli Li
- Abstract要約: Evolving Boltzmann Machine (ERBM) は ERBM-KNet と呼ばれる Kohonen Network に組み込まれている。
提案するERBM-KNetは,ERBMを用いたシングルパスモードのストリーミングデータを効率的に処理する。
- 参考スコア(独自算出の注目度): 8.44961779777063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A novel online clustering algorithm is presented where an Evolving Restricted
Boltzmann Machine (ERBM) is embedded with a Kohonen Network called ERBM-KNet.
The proposed ERBM-KNet efficiently handles streaming data in a single-pass mode
using the ERBM, employing a bias-variance strategy for neuron growing and
pruning, as well as online clustering based on a cluster update strategy for
cluster prediction and cluster center update using KNet. Initially, ERBM
evolves its architecture while processing unlabeled image data, effectively
disentangling the data distribution in the latent space. Subsequently, the KNet
utilizes the feature extracted from ERBM to predict the number of clusters and
updates the cluster centers. By overcoming the common challenges associated
with clustering algorithms, such as prior initialization of the number of
clusters and subpar clustering accuracy, the proposed ERBM-KNet offers
significant improvements. Extensive experimental evaluations on four benchmarks
and one industry dataset demonstrate the superiority of ERBM-KNet compared to
state-of-the-art approaches.
- Abstract(参考訳): Evolving Restricted Boltzmann Machine (ERBM) が ERBM-KNet と呼ばれるコホーネンネットワークに埋め込まれた新しいオンラインクラスタリングアルゴリズムが提示される。
提案するERBM-KNetは,KNetを用いたクラスタ予測とクラスタセンター更新のためのクラスタ更新戦略に基づくオンラインクラスタリングに加えて,ニューロンの成長・切断のためのバイアス分散戦略を用いて,ERBMを用いたシングルパスモードでのストリーミングデータを効率的に処理する。
当初、ERBMはラベルのない画像データを処理しながらアーキテクチャを進化させ、潜在空間におけるデータ分散を効果的に切り離す。
その後、KNetはERBMから抽出した機能を使用してクラスタ数を予測し、クラスタセンターを更新する。
クラスタ数の事前初期化やサブパークラスタリングの精度といったクラスタリングアルゴリズムに関連する一般的な課題を克服することで、提案されたERBM-KNetは大幅に改善される。
4つのベンチマークと1つの業界データセットに対する大規模な実験的評価は、最先端のアプローチと比較してERBM-KNetの優位性を示している。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - A Generalized Framework for Predictive Clustering and Optimization [18.06697544912383]
クラスタリングは強力で広く使われているデータサイエンスツールです。
本稿では,予測クラスタリングのための一般化最適化フレームワークを定義する。
また,大域的最適化のためにMILP(mixed-integer linear programming)を利用する共同最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T19:56:51Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - DRBM-ClustNet: A Deep Restricted Boltzmann-Kohonen Architecture for Data
Clustering [0.0]
DRBM-ClustNetと呼ばれるデータクラスタリングのためのベイジアンDeep Restricted Boltzmann-Kohonenアーキテクチャを提案する。
ラベルなしデータの処理は、非線形分離可能なデータセットの効率的なクラスタリングのために、3段階に分けて行われる。
このフレームワークはクラスタリングの精度に基づいて評価され、他の最先端クラスタリング手法と比較してランク付けされる。
論文 参考訳(メタデータ) (2022-05-13T15:12:18Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z) - Augmented Data as an Auxiliary Plug-in Towards Categorization of
Crowdsourced Heritage Data [2.609784101826762]
本稿では,データ拡張を補助プラグインとして導入することで,非効率なクラスタリング性能の問題を緩和する戦略を提案する。
我々は、深層クラスタリングのための新しいモデルとして初期特徴空間を構築するために、拡張データを用いた畳み込みオートエンコーダ(CAE)の変種を訓練する。
論文 参考訳(メタデータ) (2021-07-08T14:09:39Z) - Efficient Large-Scale Face Clustering Using an Online Mixture of
Gaussians [1.3101369903953806]
大規模オンライン顔クラスタリングのためのオンラインガウス混合クラスタリング法(OGMC)を提案する。
受信面から抽出された特徴ベクトル(fベクトル)を使用して、OGMCは、その近接性と堅牢性に応じて、他の人と接続できるクラスタを生成します。
実験の結果,提案手法は大規模フェースクラスタリングベンチマークにおける最先端のクラスタリング手法を上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-31T17:59:38Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。