論文の概要: Extending Kernel PCA through Dualization: Sparsity, Robustness and Fast
Algorithms
- arxiv url: http://arxiv.org/abs/2306.05815v1
- Date: Fri, 9 Jun 2023 11:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 13:38:50.333346
- Title: Extending Kernel PCA through Dualization: Sparsity, Robustness and Fast
Algorithms
- Title(参考訳): 2元化によるカーネルPCAの拡張:スパース性,ロバスト性,高速アルゴリズム
- Authors: Francesco Tonin, Alex Lambert, Panagiotis Patrinos, Johan A. K.
Suykens
- Abstract要約: 本稿では,凸関数の差分を二重化することによりカーネル主成分分析(KPCA)を再検討する。
これにより、KPCAを複数の目的関数に自然に拡張することができ、グラム行列の高価なSVDを避けるために効率的な勾配ベースのアルゴリズムが導かれる。
- 参考スコア(独自算出の注目度): 14.964073009670194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of this paper is to revisit Kernel Principal Component Analysis
(KPCA) through dualization of a difference of convex functions. This allows to
naturally extend KPCA to multiple objective functions and leads to efficient
gradient-based algorithms avoiding the expensive SVD of the Gram matrix.
Particularly, we consider objective functions that can be written as Moreau
envelopes, demonstrating how to promote robustness and sparsity within the same
framework. The proposed method is evaluated on synthetic and real-world
benchmarks, showing significant speedup in KPCA training time as well as
highlighting the benefits in terms of robustness and sparsity.
- Abstract(参考訳): 本研究の目的は,凸関数の差分を二重化することによりカーネル主成分分析(KPCA)を再検討することである。
これにより、kpcaを複数の目的関数に自然に拡張することができ、グラム行列の高価なsvdを避ける効率的な勾配ベースのアルゴリズムにつながる。
特に,モローエンベロープとして記述可能な目的関数を考察し,同じフレームワーク内で頑健性や疎性を促進する方法を示す。
提案手法は合成および実世界のベンチマークで評価され,kpcaトレーニング時間の大幅な高速化とロバスト性とスパース性の観点からの利点を浮き彫りにした。
関連論文リスト
- Efficient Duple Perturbation Robustness in Low-rank MDPs [14.53555781866821]
低ランクマルコフ決定過程(MDP)における特徴ベクトルおよび因子ベクトルの摂動という二重頑健性を導入する。
新たなロバストな MDP の定式化は関数表現のビューと互換性があり、従って、大または連続な状態-作用空間を持つ実践的な RL 問題に自然に適用できる。
また、理論収束率を保証した証明可能な効率的で実用的なアルゴリズムがもたらされる。
論文 参考訳(メタデータ) (2024-04-11T19:07:15Z) - Optimizing Two-way Partial AUC with an End-to-end Framework [154.47590401735323]
ROC曲線のエリア(AUC)は、機械学習にとって重要な指標である。
最近の研究は、TPAUCが既存のPartial AUCメトリクスと本質的に矛盾していることを示している。
本論文では,この新指標を最適化するための最初の試行について述べる。
論文 参考訳(メタデータ) (2022-06-23T12:21:30Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - When AUC meets DRO: Optimizing Partial AUC for Deep Learning with
Non-Convex Convergence Guarantee [51.527543027813344]
単方向および二方向部分AUC(pAUC)の系統的および効率的な勾配法を提案する。
一方通行と一方通行の pAUC に対して,2つのアルゴリズムを提案し,それぞれ2つの定式化を最適化するための収束性を証明した。
論文 参考訳(メタデータ) (2022-03-01T01:59:53Z) - Learnable Faster Kernel-PCA for Nonlinear Fault Detection: Deep
Autoencoder-Based Realization [7.057302509355857]
カーネル主成分分析(KPCA)は、よく認識される非線形次元減少法である。
そこで本研究では,従来のKPCAのより高速な実現法を提案する。
提案したDAE-PCA法は, KPCAと等価であることが証明されているが, 入力に応じて最適な非線形高次元空間の自動探索において, より有利である。
論文 参考訳(メタデータ) (2021-12-08T09:41:46Z) - Boosting RANSAC via Dual Principal Component Pursuit [24.942079487458624]
本稿では,強力な理論的支援と効率的なアルゴリズムを備えた頑健な部分空間学習手法としてDual principal Component Pursuit (DPCP)を紹介した。
2次元ホモグラフ、基本行列、基本行列、および3次元ホモグラフテンソルの推定実験は、我々のアプローチが最先端の代替よりも一貫して精度が高いことを示している。
論文 参考訳(メタデータ) (2021-10-06T17:04:45Z) - Doubly Robust Off-Policy Actor-Critic: Convergence and Optimality [131.45028999325797]
ディスカウント型MDPのための2倍堅牢なオフポリチックAC(DR-Off-PAC)を開発した。
DR-Off-PACは、俳優と批評家の両方が一定のステップで同時に更新される単一のタイムスケール構造を採用しています。
有限時間収束速度を研究し, dr-off-pac のサンプル複雑性を特徴とし, $epsilon$-accurate optimal policy を得る。
論文 参考訳(メタデータ) (2021-02-23T18:56:13Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。