論文の概要: Density peak clustering using tensor network
- arxiv url: http://arxiv.org/abs/2302.00192v1
- Date: Wed, 1 Feb 2023 02:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:44:17.392115
- Title: Density peak clustering using tensor network
- Title(参考訳): テンソルネットワークを用いた密度ピーククラスタリング
- Authors: Xiao Shi, Yun Shang
- Abstract要約: テンソルネットワークにインスパイアされた密度に基づくクラスタリングアルゴリズムを提案する。
我々は,6つの合成データセット,4つの実世界データセット,および3つのコンピュータビジョンデータセットに対して,アルゴリズムの性能を評価する。
- 参考スコア(独自算出の注目度): 5.726033349827603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor networks, which have been traditionally used to simulate many-body
physics, have recently gained significant attention in the field of machine
learning due to their powerful representation capabilities. In this work, we
propose a density-based clustering algorithm inspired by tensor networks. We
encode classical data into tensor network states on an extended Hilbert space
and train the tensor network states to capture the features of the clusters.
Here, we define density and related concepts in terms of fidelity, rather than
using a classical distance measure. We evaluate the performance of our
algorithm on six synthetic data sets, four real world data sets, and three
commonly used computer vision data sets. The results demonstrate that our
method provides state-of-the-art performance on several synthetic data sets and
real world data sets, even when the number of clusters is unknown.
Additionally, our algorithm performs competitively with state-of-the-art
algorithms on the MNIST, USPS, and Fashion-MNIST image data sets. These
findings reveal the great potential of tensor networks for machine learning
applications.
- Abstract(参考訳): 伝統的に多体物理学をシミュレートするために用いられてきたテンソルネットワークは、その強力な表現能力によって機械学習の分野で注目されている。
本研究ではテンソルネットワークにインスパイアされた密度に基づくクラスタリングアルゴリズムを提案する。
古典的データを拡張ヒルベルト空間上のテンソルネットワーク状態にエンコードし、テンソルネットワーク状態のトレーニングを行い、クラスタの特徴を捉える。
ここでは、古典的距離測度ではなく、忠実度の観点から密度と関連する概念を定義する。
我々は,6つの合成データセット,4つの実世界データセット,および3つのコンピュータビジョンデータセットに対して,アルゴリズムの性能を評価する。
本手法は,クラスタ数不明であっても,複数の合成データセットと実世界のデータセットにおいて最先端のパフォーマンスを提供することを示す。
さらに,本アルゴリズムは,MNIST,USPS,Fashion-MNISTの画像データセット上で,最先端のアルゴリズムと競合する。
これらの結果は、機械学習アプリケーションのためのテンソルネットワークの大きな可能性を示している。
関連論文リスト
- LSEnet: Lorentz Structural Entropy Neural Network for Deep Graph Clustering [59.89626219328127]
グラフクラスタリングは機械学習の基本的な問題である。
近年、ディープラーニング手法は最先端の成果を達成しているが、事前に定義されたクラスタ番号なしでは動作できない。
本稿では,グラフ情報理論の新たな視点からこの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-05-20T05:46:41Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Tensor networks and efficient descriptions of classical data [0.9176056742068814]
サブリージョンとその補集合間の相互情報はサブシステムサイズ$L$とどのようにスケールするかを検討する。
テキストの場合、相互情報は電力法$Lnu$としてスケールし、ボリューム法指数に近いことが分かります。
画像の場合、スケーリングは領域法則に近く、PEPSのような2次元テンソルネットワークが適切な表現性を持つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2021-03-11T18:57:16Z) - Mutual Information Scaling for Tensor Network Machine Learning [0.0]
本稿では,テンソルネットワーク機械学習における相関解析の適用方法を示す。
古典的データが量子状態に類似した相関スケーリングパターンを持つかどうかを考察する。
我々は,MNISTデータセットとTiny Imagesデータセットのスケーリングパターンを特徴付け,後者における境界法スケーリングの明確な証拠を見出す。
論文 参考訳(メタデータ) (2021-02-27T02:17:51Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Locally orderless tensor networks for classifying two- and
three-dimensional medical images [0.3867363075280544]
一次元ベクトル上で動作可能な行列積状態(MPS)テンソルネットワークを改善する。
我々は、小さな画像領域を秩序のないものとして扱い、空間情報を特徴次元に絞って、これらの局所秩序のない領域でMPS操作を行う。
LoTeNetのアーキテクチャはすべての実験で固定されており、比較した手法に比較して性能を得るためには、より少ない計算資源を必要とすることを示す。
論文 参考訳(メタデータ) (2020-09-25T15:05:02Z) - Interpretable Visualizations with Differentiating Embedding Networks [0.0]
本稿では,新たな非教師付きシームズニューラルネットワークトレーニングシステムと損失関数に基づく,微分埋め込みネットワーク(DEN)を用いた可視化アルゴリズムを提案する。
Siameseのニューラルネットワークは、データセット内の特定のサンプルペア間の差別化や類似した特徴を見つけ、これらの特徴を使用して、データセットを視覚化可能な低次元空間に埋め込む。
DENを解釈するために、可視化の上にエンドツーエンドのパラメトリッククラスタリングアルゴリズムを作成し、次にSHAPスコアを利用して、サンプル空間のどの特徴が重要かを決定する。
論文 参考訳(メタデータ) (2020-06-11T17:30:44Z) - Anomaly Detection with Tensor Networks [2.3895981099137535]
テンソルネットワークのメモリと計算効率を利用して、原特徴数の次元指数で空間上の線形変換を学習する。
画像の局所性を利用していないにもかかわらず、画像データセット上で競合する結果を生成する。
論文 参考訳(メタデータ) (2020-06-03T20:41:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。