論文の概要: Principal Ellipsoid Analysis (PEA): Efficient non-linear dimension
reduction & clustering
- arxiv url: http://arxiv.org/abs/2008.07110v2
- Date: Mon, 7 Sep 2020 03:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 04:08:59.960570
- Title: Principal Ellipsoid Analysis (PEA): Efficient non-linear dimension
reduction & clustering
- Title(参考訳): 主エリプソイド分析(PEA) : 効率的な非線形次元削減とクラスタリング
- Authors: Debolina Paul, Saptarshi Chakraborty, Didong Li and David Dunson
- Abstract要約: 本稿では,データとより柔軟なクラスタ形状の非線形関係を実現することにより,PCAとk平均の改善に焦点を当てる。
鍵となる貢献は、PCAに代わる単純で効率的な代替品を定義する、PEA(Principal Analysis)の新しいフレームワークである。
さまざまな実際のデータクラスタリングアプリケーションにおいて、PEAは単純なデータセットのためのk-meansと同様に機能し、より複雑な設定でパフォーマンスを劇的に改善する。
- 参考スコア(独自算出の注目度): 9.042239247913642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Even with the rise in popularity of over-parameterized models, simple
dimensionality reduction and clustering methods, such as PCA and k-means, are
still routinely used in an amazing variety of settings. A primary reason is the
combination of simplicity, interpretability and computational efficiency. The
focus of this article is on improving upon PCA and k-means, by allowing
non-linear relations in the data and more flexible cluster shapes, without
sacrificing the key advantages. The key contribution is a new framework for
Principal Elliptical Analysis (PEA), defining a simple and computationally
efficient alternative to PCA that fits the best elliptical approximation
through the data. We provide theoretical guarantees on the proposed PEA
algorithm using Vapnik-Chervonenkis (VC) theory to show strong consistency and
uniform concentration bounds. Toy experiments illustrate the performance of
PEA, and the ability to adapt to non-linear structure and complex cluster
shapes. In a rich variety of real data clustering applications, PEA is shown to
do as well as k-means for simple datasets, while dramatically improving
performance in more complex settings.
- Abstract(参考訳): 過パラメータ化モデルの普及にもかかわらず、PCAやk-meansのような単純な次元削減とクラスタリング手法は、いまだに驚くほど多様な設定で日常的に使われている。
主な理由は、単純性、解釈性、計算効率の組み合わせである。
この記事では、PCAとk平均の改善に焦点を当て、重要な利点を犠牲にすることなく、データとより柔軟なクラスタ形状の非線形関係を可能にする。
鍵となる貢献は、プライマリ楕円解析(PEA)のための新しいフレームワークであり、データを通して最適な楕円近似に適合するPCAに代わる単純で効率的な代替品を定義する。
Vapnik-Chervonenkis(VC)理論を用いて提案したPEAアルゴリズムに関する理論的保証を行い、強い一貫性と一様濃度境界を示す。
トイ実験は、PEAの性能と、非線形構造や複雑なクラスタ形状に適応する能力を説明する。
さまざまな実際のデータクラスタリングアプリケーションにおいて、PEAは単純なデータセットのためのk-meansと同様に機能し、より複雑な設定でパフォーマンスを劇的に改善する。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Learning-Augmented K-Means Clustering Using Dimensional Reduction [1.7243216387069678]
主成分分析(PCA)を用いたデータセットの次元性低減手法を提案する。
PCAは文献でよく確立されており、データモデリング、圧縮、可視化の最も有用なツールの1つになっている。
論文 参考訳(メタデータ) (2024-01-06T12:02:33Z) - Accelerated sparse Kernel Spectral Clustering for large scale data
clustering problems [0.27257174044950283]
本稿では、スパースマルチウェイカーネルスペクトルクラスタリング(KSC)の改良版について述べる。
元のアルゴリズムは、プライマリ・デュアルの最小二乗サポートベクターマシン(LS-SVM)フレームワークで定式化された重み付きカーネル主成分分析から導かれる。
次に、不完全コレスキー分解(ICD)に基づくカーネル行列の低階近似といわゆるreduced set法を組み合わせることにより、スパーシリティが達成される。
論文 参考訳(メタデータ) (2023-10-20T09:51:42Z) - An online algorithm for contrastive Principal Component Analysis [9.090031210111919]
我々は、cPCA*のオンラインアルゴリズムを導き、局所的な学習規則でニューラルネットワークにマップできることを示し、エネルギー効率の良いニューロモルフィックハードウェアで実装できる可能性がある。
実際のデータセット上でのオンラインアルゴリズムの性能を評価し、元の定式化との相違点と類似点を強調した。
論文 参考訳(メタデータ) (2022-11-14T19:48:48Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Self-paced Principal Component Analysis [17.333976289539457]
本稿では,SPCA (Self-paced PCA) と呼ばれる新しい手法を提案する。
各サンプルの複雑さは、単純からより複雑なサンプルをトレーニングに統合するために、各イテレーションの開始時に計算されます。
論文 参考訳(メタデータ) (2021-06-25T20:50:45Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Repulsive Mixture Models of Exponential Family PCA for Clustering [127.90219303669006]
指数関数型家族主成分分析(EPCA)の混合拡張は、従来のEPCAよりもデータ分布に関する構造情報を符号化するように設計された。
従来のEPCAの混合は、モデルの冗長性、すなわち混合成分間の重なりが問題であり、データクラスタリングの曖昧さを引き起こす可能性がある。
本稿では, 混合成分間での反発性増感前処理を導入し, ベイズ式に分散EPCA混合(DEPCAM)モデルを開発した。
論文 参考訳(メタデータ) (2020-04-07T04:07:29Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。