論文の概要: Nonlinear Markov Clustering by Minimum Curvilinear Sparse Similarity
- arxiv url: http://arxiv.org/abs/1912.12211v1
- Date: Fri, 27 Dec 2019 16:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 23:25:40.159752
- Title: Nonlinear Markov Clustering by Minimum Curvilinear Sparse Similarity
- Title(参考訳): 最小曲線スパース類似性による非線形マルコフクラスタリング
- Authors: C. Duran, A. Acevedo, S. Ciucci, A. Muscoloni, and CV. Cannistraci
- Abstract要約: MCLの最初の非線形カーネル拡張であるMC-MCLを提案する。
MC-MCLは、従来のMCLやベースラインクラスタリングアルゴリズムを、異なる非線形データセットで克服する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of algorithms for unsupervised pattern recognition by
nonlinear clustering is a notable problem in data science. Markov clustering
(MCL) is a renowned algorithm that simulates stochastic flows on a network of
sample similarities to detect the structural organization of clusters in the
data, but it has never been generalized to deal with data nonlinearity. Minimum
Curvilinearity (MC) is a principle that approximates nonlinear sample distances
in the high-dimensional feature space by curvilinear distances, which are
computed as transversal paths over their minimum spanning tree, and then stored
in a kernel. Here we propose MC-MCL, which is the first nonlinear kernel
extension of MCL and exploits Minimum Curvilinearity to enhance the performance
of MCL in real and synthetic data with underlying nonlinear patterns. MC-MCL is
compared with baseline clustering methods, including DBSCAN, K-means and
affinity propagation. We find that Minimum Curvilinearity provides a valuable
framework to estimate nonlinear distances also when its kernel is applied in
combination with MCL. Indeed, MC-MCL overcomes classical MCL and even baseline
clustering algorithms in different nonlinear datasets.
- Abstract(参考訳): 非線形クラスタリングによる教師なしパターン認識アルゴリズムの開発は、データサイエンスにおいて顕著な問題である。
マルコフクラスタリング(英語版)(mcl)は、サンプル類似性のネットワーク上の確率的流れをシミュレートし、データ内のクラスタの構造的構造を検出する有名なアルゴリズムであるが、データの非線形性を扱うために一般化されたことはない。
最小曲率 (minimum curvilinearity, mc) は、高次元特徴空間における非線形サンプル距離を、最小スパンディングツリー上の横断経路として計算され、カーネルに格納される曲率距離によって近似する原理である。
本稿では,mclの非線形カーネル拡張であるmc-mclを提案し,最小曲率を利用して実データおよび合成データにおけるmclの性能を向上させる。
MC-MCLはDBSCAN, K-means, アフィニティ伝搬などのベースラインクラスタリング法と比較される。
MCLと組み合わせてカーネルを適用した場合にも、最小カービリニアリティは非線形距離を推定するための貴重なフレームワークを提供する。
実際、MC-MCLは古典的なMCLやベースラインクラスタリングアルゴリズムを、異なる非線形データセットで克服している。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Neural empirical interpolation method for nonlinear model reduction [0.0]
減数順序モデル(ROM)における非線形項計算の時間的複雑さを低減するためのニューラル経験法(NEIM)を導入する。
NEIM は、ROM の非線形項のアフィン分解を近似することにより、この還元を実現するグレディアルゴリズムである。
NEIMは強欲な戦略に基づいており,その性能を調査するための基本的な誤り解析を行うことができる。
論文 参考訳(メタデータ) (2024-06-05T18:17:33Z) - Maximum Likelihood Estimation on Stochastic Blockmodels for Directed Graph Clustering [22.421702511126373]
我々は、有向ブロックモデルにおいて、基盤となるコミュニティを推定するものとしてクラスタリングを定式化する。
本稿では,2つの効率的かつ解釈可能な有向クラスタリングアルゴリズム,スペクトルクラスタリングアルゴリズム,半定値プログラミングに基づくクラスタリングアルゴリズムを紹介する。
論文 参考訳(メタデータ) (2024-03-28T15:47:13Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Global Convergence of Online Identification for Mixed Linear Regression [1.9295130374196499]
混合線形回帰(MLR)は非線形関係を特徴づける強力なモデルである。
本稿では,MLRの2つの基本クラスにおけるオンライン識別とデータクラスタリングの問題について検討する。
期待最大化原理に基づく新しいオンライン識別アルゴリズムを2つ導入する。
論文 参考訳(メタデータ) (2023-11-30T12:30:42Z) - Learning Generative Prior with Latent Space Sparsity Constraints [25.213673771175692]
自然像の分布は1つの多様体にではなく、むしろいくつかの部分多様体の結合にあると論じられている。
本稿では,スペーサ性駆動型潜時空間サンプリング(SDLSS)フレームワークを提案し,PMLアルゴリズムを用いて潜時空間のスペーサ性を実現する。
その結果, SDLSS法は, 高次圧縮では最先端法よりも効率が高いことがわかった。
論文 参考訳(メタデータ) (2021-05-25T14:12:04Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - Local Graph Clustering with Network Lasso [90.66817876491052]
局所グラフクラスタリングのためのネットワークLasso法の統計的および計算的性質について検討する。
nLassoによって提供されるクラスタは、クラスタ境界とシードノードの間のネットワークフローを通じて、エレガントに特徴付けられる。
論文 参考訳(メタデータ) (2020-04-25T17:52:05Z) - WICA: nonlinear weighted ICA [72.02008296553318]
独立成分分析(ICA)は、データのコンポーネントが独立している座標系を見つけることを目的としている。
我々は、WICAと呼ばれる新しい非線形ICAモデルを構築し、他のアルゴリズムよりも優れた、より安定した結果を得る。
論文 参考訳(メタデータ) (2020-01-13T10:38:03Z) - Probabilistic K-means Clustering via Nonlinear Programming [13.026121785720395]
確率的K平均 (probabilistic K-Means, PKM) は線形等式と線形不等式に制約された非線形プログラミングモデルである。
理論上は、能動的勾配射影により非効率にモデルを解くことができる。
実験により,PKMの性能と提案手法の解法を5つの側面で検討した。
論文 参考訳(メタデータ) (2020-01-10T02:40:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。