論文の概要: Robust Clustering using Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2312.02407v1
- Date: Tue, 5 Dec 2023 00:46:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:14:40.581129
- Title: Robust Clustering using Hyperdimensional Computing
- Title(参考訳): 超次元計算によるロバストクラスタリング
- Authors: Lulu Ge, Keshab K. Parhi
- Abstract要約: 本稿では,超次元計算(HDC)領域におけるデータのクラスタリングについて述べる。
類似性に基づくk平均、等しいビン幅ヒストグラム、等しいビン高さヒストグラム、類似性に基づく親和性伝播の4つのHDCベースのクラスタリングアルゴリズムを提案する。
既存のHDClusterと比較して、提案したHDCベースのクラスタリングアルゴリズムは、精度の向上、堅牢なパフォーマンス向上、イテレーションの削減、実行時間の短縮を実現しています。
- 参考スコア(独自算出の注目度): 8.646394289044387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the clustering of data in the hyperdimensional computing
(HDC) domain. In prior work, an HDC-based clustering framework, referred to as
HDCluster, has been proposed. However, the performance of the existing
HDCluster is not robust. The performance of HDCluster is degraded as the
hypervectors for the clusters are chosen at random during the initialization
step. To overcome this bottleneck, we assign the initial cluster hypervectors
by exploring the similarity of the encoded data, referred to as \textit{query}
hypervectors. Intra-cluster hypervectors have a higher similarity than
inter-cluster hypervectors. Harnessing the similarity results among query
hypervectors, this paper proposes four HDC-based clustering algorithms:
similarity-based k-means, equal bin-width histogram, equal bin-height
histogram, and similarity-based affinity propagation. Experimental results
illustrate that: (i) Compared to the existing HDCluster, our proposed HDC-based
clustering algorithms can achieve better accuracy, more robust performance,
fewer iterations, and less execution time. Similarity-based affinity
propagation outperforms the other three HDC-based clustering algorithms on
eight datasets by 2~38% in clustering accuracy. (ii) Even for one-pass
clustering, i.e., without any iterative update of the cluster hypervectors, our
proposed algorithms can provide more robust clustering accuracy than HDCluster.
(iii) Over eight datasets, five out of eight can achieve higher or comparable
accuracy when projected onto the hyperdimensional space. Traditional clustering
is more desirable than HDC when the number of clusters, $k$, is large.
- Abstract(参考訳): 本稿では,超次元コンピューティング(hdc)領域におけるデータのクラスタリングについて述べる。
以前の作業では、hdclusterと呼ばれるhdcベースのクラスタリングフレームワークが提案されている。
しかし、既存のhdクラスタのパフォーマンスは堅牢ではない。
HDClusterの性能は、初期化ステップ中にクラスタのハイパーベクターがランダムに選択されるため劣化する。
このボトルネックを克服するために、エンコードされたデータの類似性を調べることによって、初期クラスタハイパーベクトルを割り当てる。
クラスタ内ハイパーベクターはクラスタ間ハイパーベクターよりも高い類似性を有する。
本稿では,クエリハイパーベクトル間の類似性を利用して,類似度に基づくk-means,等しいbin-widthヒストグラム,等しいbin-heightヒストグラム,類似度に基づく親和性伝播の4つのクラスタリングアルゴリズムを提案する。
実験結果はこう示しています
i) 既存のHDClusterと比較して,提案したHDCベースのクラスタリングアルゴリズムは,精度の向上,堅牢性の向上,イテレーションの削減,実行時間の短縮を実現している。
類似性に基づく親和性伝播は、他の3つのHDCベースのクラスタリングアルゴリズムを8つのデータセットで2~38%精度で上回る。
(ii) クラスタハイパーベクタの反復的な更新を行わない一パスクラスタリングにおいても,提案アルゴリズムはHDClusterよりもロバストなクラスタリング精度を提供できる。
(iii)8つのデータセットのうち5つは、超次元空間に投影されたときに高い精度または同等の精度を達成することができる。
クラスタ数が$k$である場合、従来のクラスタリングの方がHDCよりも望ましい。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - A3S: A General Active Clustering Method with Pairwise Constraints [66.74627463101837]
A3Sは、適応クラスタリングアルゴリズムによって得られる初期クラスタ結果に対して、戦略的にアクティブクラスタリングを調整する。
さまざまな実世界のデータセットにわたる広範な実験において、A3Sは、人間のクエリを著しく少なくして、望ましい結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T13:37:03Z) - Deep Clustering with Self-Supervision using Pairwise Similarities [7.111650988432555]
ペアワイズ類似性(DCSS)を用いた自己スーパービジョンを用いた新しいディープクラスタリングフレームワークを提案する。
第1フェーズでは、クラスタ固有の損失を用いてトレーニングされたオートエンコーダを用いて、類似したデータポイントからなるハイパースフィアのようなグループを構築することを提案する。
第2フェーズでは、より複雑なクラスタ分布を調節可能な$K$次元空間を作成するために、ペアワイズ類似性を利用することを提案する。
論文 参考訳(メタデータ) (2024-05-06T16:01:28Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - DRBM-ClustNet: A Deep Restricted Boltzmann-Kohonen Architecture for Data
Clustering [0.0]
DRBM-ClustNetと呼ばれるデータクラスタリングのためのベイジアンDeep Restricted Boltzmann-Kohonenアーキテクチャを提案する。
ラベルなしデータの処理は、非線形分離可能なデータセットの効率的なクラスタリングのために、3段階に分けて行われる。
このフレームワークはクラスタリングの精度に基づいて評価され、他の最先端クラスタリング手法と比較してランク付けされる。
論文 参考訳(メタデータ) (2022-05-13T15:12:18Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Supervised Enhanced Soft Subspace Clustering (SESSC) for TSK Fuzzy
Classifiers [25.32478253796209]
ファジィc平均クラスタリングアルゴリズムは,高木・スゲノカン(TSK)ファジィ分類器パラメータ推定によく用いられる。
本稿では,クラスタ内コンパクト性,クラスタ間分離,クラスタリングにおけるラベル情報とを同時に考慮した拡張ソフトサブスペースクラスタリング(SESSC)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-27T19:39:19Z) - Point-Set Kernel Clustering [11.093960688450602]
本稿では,オブジェクトとオブジェクトの集合との類似性を計算する,ポイントセットカーネルと呼ばれる新しい類似度尺度を提案する。
新たなクラスタリング手法は,大規模データセットを扱えるように,効率的かつ効率的であることを示す。
論文 参考訳(メタデータ) (2020-02-14T00:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。