論文の概要: A kernel Principal Component Analysis (kPCA) digest with a new backward
mapping (pre-image reconstruction) strategy
- arxiv url: http://arxiv.org/abs/2001.01958v2
- Date: Wed, 13 Jan 2021 18:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 21:29:15.034402
- Title: A kernel Principal Component Analysis (kPCA) digest with a new backward
mapping (pre-image reconstruction) strategy
- Title(参考訳): 新しい後方マッピング(画像前再構成)戦略を用いたカーネル主成分分析(kPCA)ダイジェスト
- Authors: Alberto Garc\'ia-Gonz\'alez, Antonio Huerta, Sergio Zlotnik and Pedro
D\'iez
- Abstract要約: 主成分分析(PCA)は、データが線形構造を持つ場合、非常に効果的である。
しかし、データが非線形の低次元多様体に属する場合、次元減少の可能性を特定することに失敗する。
非線形次元の削減のために、カーネル主成分分析(kPCA)は、その単純さと実装の容易さから評価されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Methodologies for multidimensionality reduction aim at discovering
low-dimensional manifolds where data ranges. Principal Component Analysis (PCA)
is very effective if data have linear structure. But fails in identifying a
possible dimensionality reduction if data belong to a nonlinear low-dimensional
manifold. For nonlinear dimensionality reduction, kernel Principal Component
Analysis (kPCA) is appreciated because of its simplicity and ease
implementation. The paper provides a concise review of PCA and kPCA main ideas,
trying to collect in a single document aspects that are often dispersed.
Moreover, a strategy to map back the reduced dimension into the original high
dimensional space is also devised, based on the minimization of a discrepancy
functional.
- Abstract(参考訳): 多次元性低減手法は、データ範囲の低次元多様体を発見することを目的としている。
主成分分析(PCA)は、データが線形構造を持つ場合、非常に効果的である。
しかし、データが非線形の低次元多様体に属する場合、次元減少の可能性を特定することに失敗する。
非線形次元の低減のために、カーネル主成分分析(kpca)はその単純さと実装の容易さから評価されている。
本稿は、PCAとkPCAの主な考え方を簡潔にレビューし、しばしば分散される単一のドキュメントの側面で収集しようとするものである。
また、離散汎関数の最小化に基づいて、縮小次元を元の高次元空間にマップする戦略も考案されている。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Learning-Augmented K-Means Clustering Using Dimensional Reduction [1.7243216387069678]
主成分分析(PCA)を用いたデータセットの次元性低減手法を提案する。
PCAは文献でよく確立されており、データモデリング、圧縮、可視化の最も有用なツールの1つになっている。
論文 参考訳(メタデータ) (2024-01-06T12:02:33Z) - Entropic Wasserstein Component Analysis [8.744017403796406]
次元減少(DR)の鍵となる要件は、元のサンプルと組込みサンプルの間にグローバルな依存関係を組み込むことである。
最適輸送(OT)と主成分分析(PCA)の原理を組み合わせる。
提案手法は, サンプルの近傍情報を自然に符号化するエントロピーOTを用いて, 復元誤差を最小化する最適線形部分空間を求める。
論文 参考訳(メタデータ) (2023-03-09T08:59:33Z) - DimenFix: A novel meta-dimensionality reduction method for feature
preservation [64.0476282000118]
そこで我々は, グラデーション・ディフレッシブなプロセスを含む任意の基本次元還元法で操作できる新しいメタメソド, DimenFixを提案する。
DimenFixは、ディメンタリティの削減と見なされるさまざまな機能の重要性をユーザが定義できるようにすることで、与えられたデータセットを視覚化し、理解する新たな可能性を生み出します。
論文 参考訳(メタデータ) (2022-11-30T05:35:22Z) - Supervised Linear Dimension-Reduction Methods: Review, Extensions, and
Comparisons [6.71092092685492]
主成分分析(PCA)は、データ解析やモデリングに広く用いられている、よく知られた線形次元還元法である。
本稿では,選択した手法をレビューし,その一部を拡張し,シミュレーションによる性能比較を行う。
これらの2つの手法のうち、部分最小二乗法(PLS)と最小二乗法(LSPCA)は、この研究で他よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-09-09T17:57:25Z) - Improving Metric Dimensionality Reduction with Distributed Topology [68.8204255655161]
DIPOLEは、局所的、計量的項と大域的、位相的項の両方で損失関数を最小化し、初期埋め込みを補正する次元推論後処理ステップである。
DIPOLEは、UMAP、t-SNE、Isomapといった一般的な手法よりも多くの一般的なデータセットで優れています。
論文 参考訳(メタデータ) (2021-06-14T17:19:44Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Robust Principal Component Analysis: A Median of Means Approach [17.446104539598895]
主成分分析(main Component Analysis)は、データビジュアライゼーション、デノイング、次元削減のためのツールである。
最近の教師付き学習手法は、外見的な観察を扱う上で大きな成功を収めている。
本稿では,MoM原理に基づくPCA手法を提案する。
論文 参考訳(メタデータ) (2021-02-05T19:59:05Z) - A Linearly Convergent Algorithm for Distributed Principal Component
Analysis [12.91948651812873]
本稿では,1時間スケール分散pcaアルゴリズムである分散sanger's algorithm(dsa)を提案する。
提案アルゴリズムは真の解の近傍に線形収束することを示した。
論文 参考訳(メタデータ) (2021-01-05T00:51:14Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。