論文の概要: Clustering by quantum annealing on three-level quantum elements qutrits
- arxiv url: http://arxiv.org/abs/2102.09205v1
- Date: Thu, 18 Feb 2021 08:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 20:08:42.760665
- Title: Clustering by quantum annealing on three-level quantum elements qutrits
- Title(参考訳): 3レベル量子素子の量子アニールによるクラスタリング
- Authors: V. E. Zobov and I. S. Pichkovskiy
- Abstract要約: クラスタリングは、いくつかのプロパティの近接によって、データのグループ化である。
人工量子ニューラルネットワークを用いた平面における点のクラスタリングの効率向上の可能性について報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering is grouping of data by the proximity of some properties. We report
on the possibility of increasing the efficiency of clustering of points in a
plane using artificial quantum neural networks after the replacement of the
two-level neurons called qubits represented by the spins S = 1/2 by the
three-level neurons called qutrits represented by the spins S = 1. The problem
has been solved by the slow adiabatic change of the Hamiltonian in time. The
methods for controlling a qutrit system using projection operators have been
developed and the numerical simulation has been performed. The Hamiltonians for
two well-known cluster-ing methods, one-hot encoding and k-means ++, have been
built. The first method has been used to partition a set of six points into
three or two clusters and the second method, to partition a set of nine points
into three clusters and seven points into four clusters. The simulation has
shown that the clustering problem can be ef-fectively solved on qutrits
represented by the spins S = 1. The advantages of clustering on qutrits over
that on qubits have been demonstrated. In particular, the number of qutrits
required to represent data points is smaller than the number of qubits by a
factor of log2 N / log3 N . Since, for qutrits, it is easier to partition the
data points into three clusters rather than two ones, the approximate
hierarchical procedure of data partition-ing into a larger number of clusters
is accelerated. At the exact data partition into more than three clusters, it
has been proposed to number the clusters by the numbers of states of the
corresponding multi-spin subsys-tems, instead of using the numbers of
individual spins. This reduces even more the number of qutrits (N log3 K
instead of NK ) required to implement the algorithm.
- Abstract(参考訳): クラスタリングは、いくつかのプロパティの近接によるデータのグループ化である。
我々は、スピンS = 1/2で表される2レベルニューロンをスピンS = 1で表される3レベルニューロンに置き換えた後に、人工量子ニューラルネットワークを用いた平面上の点のクラスタリングの効率を高める可能性について報告する。
この問題はハミルトニアンの時間の遅い断熱的変化によって解決された。
投影演算子を用いたクトリット系の制御法を開発し,数値シミュレーションを行った。
有名なクラスタリングメソッドであるワンホットエンコーディングとk-means ++の2つのハミルトンアンが構築されている。
第1の方法は6点の集合を3つまたは2つのクラスタに分割し、第2の方法は9点の集合を3つのクラスタに分割し、7点を4つのクラスタに分割する。
シミュレーションにより, スピン s = 1 で表される qutrit 上でのクラスタリング問題は ef-fective に解くことができることが示された。
量子ビット上のクラスタリングの利点が証明されている。
特に、データポイントを表すのに必要なキュートリットの数は、log2 N / log3 N の係数によるキュービットの数よりも小さい。
クォートリットの場合、データポイントを2つではなく3つのクラスタに分割するのが簡単であるため、データパーティショニングの近似階層的な手順がより多くのクラスタに加速される。
3つ以上のクラスタへの正確なデータ分割では、個々のスピンの数を使うのではなく、対応するマルチスピンサブサイスtemの状態数でクラスタを数えることが提案されている。
これにより、アルゴリズムを実装するのに必要なクォートリット(NKの代わりにN log3 K)の数はさらに減少する。
関連論文リスト
- Clustering Based on Density Propagation and Subcluster Merging [92.15924057172195]
本稿では,クラスタ数を自動的に決定し,データ空間とグラフ空間の両方に適用可能な密度に基づくノードクラスタリング手法を提案する。
二つのノード間の距離を計算する従来の密度クラスタリング法とは異なり,提案手法は伝播過程を通じて密度を決定する。
論文 参考訳(メタデータ) (2024-11-04T04:09:36Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - DRBM-ClustNet: A Deep Restricted Boltzmann-Kohonen Architecture for Data
Clustering [0.0]
DRBM-ClustNetと呼ばれるデータクラスタリングのためのベイジアンDeep Restricted Boltzmann-Kohonenアーキテクチャを提案する。
ラベルなしデータの処理は、非線形分離可能なデータセットの効率的なクラスタリングのために、3段階に分けて行われる。
このフレームワークはクラスタリングの精度に基づいて評価され、他の最先端クラスタリング手法と比較してランク付けされる。
論文 参考訳(メタデータ) (2022-05-13T15:12:18Z) - Fast and explainable clustering based on sorting [0.0]
我々はCLASSIXと呼ばれる高速で説明可能なクラスタリング手法を提案する。
このアルゴリズムは2つのスカラーパラメータ、すなわちアグリゲーションのための距離パラメータと、最小クラスタサイズを制御する別のパラメータによって制御される。
実験により, CLASSIXは最先端クラスタリングアルゴリズムと競合することを示した。
論文 参考訳(メタデータ) (2022-02-03T08:24:21Z) - K-Splits: Improved K-Means Clustering Algorithm to Automatically Detect
the Number of Clusters [0.12313056815753944]
本稿では,k-meansに基づく改良された階層型アルゴリズムであるk-splitsを紹介する。
提案手法の主な利点は,精度と速度である。
論文 参考訳(メタデータ) (2021-10-09T23:02:57Z) - Experimental Determination of Multi-Qubit Ground State via a Cluster
Mean-Field Algorithm [1.9790421227325208]
量子固有解法は,多層クラスタ平均場アルゴリズムを用いて設計される。
この手法はマルチスピンチェーンで数値的に検証され、完全に接続された3スピンネットワークで実験的に研究されている。
論文 参考訳(メタデータ) (2021-10-03T07:12:45Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Quantum Spectral Clustering [5.414308305392762]
スペクトルクラスタリングは、非凸構造やネスト構造でデータをクラスタリングするための強力な機械学習アルゴリズムである。
本稿では,エンドツーエンドの量子アルゴリズムのスペクトルクラスタリングを提案し,量子機械学習における多くの研究を拡張した。
論文 参考訳(メタデータ) (2020-07-01T07:11:42Z) - Ball k-means [53.89505717006118]
Ball k-meansアルゴリズムは、ポイントセントロイド距離計算の削減に集中して、クラスタを記述するためにボールを使用する。
高速、余分なパラメータなし、単純設計のボールk平均アルゴリズムは、素早いk平均アルゴリズムを全面的に置き換える。
論文 参考訳(メタデータ) (2020-05-02T10:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。