論文の概要: Comparison between neural network clustering, hierarchical clustering and k-means clustering: Applications using fluidic lenses
- arxiv url: http://arxiv.org/abs/2503.22448v1
- Date: Fri, 28 Mar 2025 14:01:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:31:08.266104
- Title: Comparison between neural network clustering, hierarchical clustering and k-means clustering: Applications using fluidic lenses
- Title(参考訳): ニューラルネットワーククラスタリング,階層クラスタリング,k平均クラスタリングの比較:流体レンズを用いた応用
- Authors: Graciana Puentes,
- Abstract要約: ニューラルネットワーククラスタリング(NNC)、階層クラスタリング(HC)、K平均クラスタリング(KMC)の比較を行う。
NNCでは、波面センサ再構成の収集に自己組織化マップ(SOM)トレーニングを適用した。
HCの場合、データは相似性連鎖行列の組み合わせで分割された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: A comparison between neural network clustering (NNC), hierarchical clustering (HC) and K-means clustering (KMC) is performed to evaluate the computational superiority of these three machine learning (ML) techniques for organizing large datasets into clusters. For NNC, a self-organizing map (SOM) training was applied to a collection of wavefront sensor reconstructions, decomposed in terms of 15 Zernike coefficients, characterizing the optical aberrations of the phase front transmitted by fluidic lenses. In order to understand the distribution and structure of the 15 Zernike variables within an input space, SOM-neighboring weight distances, SOM-sample hits, SOM-weight positions and SOM-weight planes were analyzed to form a visual interpretation of the system's structural properties. In the case of HC, the data was partitioned using a combined dissimilarity-linkage matrix computation. The effectiveness of this method was confirmed by a high cophenetic correlation coefficient value (c=0.9651). Additionally, a maximum number of clusters was established by setting an inconsistency cutoff of 0.8, yielding a total of 7 clusters for system segmentation. In addition, a KMC approach was employed to establish a quantitative measure of clustering segmentation efficiency, obtaining a sillhoute average value of 0.905 for data segmentation into K=5 non-overlapping clusters. On the other hand, the NNC analysis revealed that the 15 variables could be characterized through the collective influence of 8 clusters. It was established that the formation of clusters through the combined linkage and dissimilarity algorithms of HC alongside KMC is a more dependable clustering solution than separate assessment via NNC or HC, where altering the SOM size or inconsistency cutoff can lead to completely new clustering configurations.
- Abstract(参考訳): ニューラルネットワーククラスタリング(NNC)、階層クラスタリング(HC)、K平均クラスタリング(KMC)の比較を行い、大規模なデータセットをクラスタ化するための3つの機械学習(ML)技術の計算上の優位性を評価する。
NNCでは, 自己組織マップ(SOM)のトレーニングを, 15個のゼルニケ係数で分解した波面センサ再構成の集合に適用し, 流体レンズで伝達される相前線の光学的収差を特徴づけた。
入力空間内の15のゼルニケ変数の分布と構造を理解するため,SOM近傍のウェイト距離,SOM近傍のヒット,SOM重み位置,SOM重み面を解析し,システムの構造特性を視覚的に解釈した。
HCの場合、データは相似性-連鎖行列計算を併用して分割された。
この手法の有効性は高い相関相関係数(c=0.9651)によって確認された。
さらに、システムセグメンテーションのための合計7つのクラスタを生成する不整合カットオフを0.8に設定することで、最大数のクラスタが確立された。
さらに, KMC法を用いてクラスタリングセグメンテーション効率を定量的に測定し, K=5非オーバーラップクラスタへのデータセグメンテーションの平均値0.905を得た。
一方, NNC分析では, 8個のクラスターの集団的影響により15個の変数を特徴付けることができた。
KMCと組み合わせたHCの結合と相似性アルゴリズムによるクラスタの形成は、NOCやHCによる別個の評価よりも信頼性の高いクラスタリングソリューションであり、SOMサイズの変更や不整合の遮断が全く新しいクラスタリング構成をもたらすことが確認された。
関連論文リスト
- Estimating the Optimal Number of Clusters in Categorical Data Clustering by Silhouette Coefficient [0.5939858158928473]
本稿では,分類データクラスタリングにおける最適kを推定するアルゴリズムk-SCCを提案する。
k-SCCの性能を比較するために, 合成データセットと実データセットの比較実験を行った。
論文 参考訳(メタデータ) (2025-01-26T14:29:11Z) - Clustering Based on Density Propagation and Subcluster Merging [92.15924057172195]
本稿では,クラスタ数を自動的に決定し,データ空間とグラフ空間の両方に適用可能な密度に基づくノードクラスタリング手法を提案する。
二つのノード間の距離を計算する従来の密度クラスタリング法とは異なり,提案手法は伝播過程を通じて密度を決定する。
論文 参考訳(メタデータ) (2024-11-04T04:09:36Z) - Similarity and Dissimilarity Guided Co-association Matrix Construction for Ensemble Clustering [22.280221709474105]
アンサンブルクラスタリングを実現するためにSDGCA(Simisity and Dissimilarity Guided Co-Association matrix)を提案する。
まず、各クラスタの品質を推定するために正規化アンサンブルエントロピーを導入し、この推定に基づいて類似度行列を構築した。
ランダムウォークを用いて、基底クラスタリングの高次近接を探索し、相似行列を構成する。
論文 参考訳(メタデータ) (2024-11-01T08:10:28Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Multi-View Clustering via Semi-non-negative Tensor Factorization [120.87318230985653]
半負のテンソル因子分解(Semi-NTF)に基づく新しいマルチビュークラスタリングを開発する。
本モデルは、ビュー間の関係を直接考慮し、ビュー間の補完情報を利用する。
さらに,提案手法の最適化アルゴリズムを提案し,そのアルゴリズムが常に定常KKT点に収束することを数学的に証明する。
論文 参考訳(メタデータ) (2023-03-29T14:54:19Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - An improved spectral clustering method for community detection under the
degree-corrected stochastic blockmodel [1.0965065178451106]
次数補正ブロックモデル(SBM)に基づく改良型スペクトルクラスタリング(ISC)手法を提案する。
ISCは、SimmonsとCaltechの2つの弱い信号ネットワークにおいて、それぞれ121/1137と96/590のエラー率で大幅に改善されている。
論文 参考訳(メタデータ) (2020-11-12T13:35:11Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。