論文の概要: Inverse Kernel Decomposition
- arxiv url: http://arxiv.org/abs/2211.05961v1
- Date: Fri, 11 Nov 2022 02:14:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 16:41:20.361598
- Title: Inverse Kernel Decomposition
- Title(参考訳): 逆カーネル分解
- Authors: Chengrui Li and Anqi Wu
- Abstract要約: 逆カーネル分解法(Inverse Kernel Decomposition, IKD)を提案する。
IKDはデータのサンプル共分散行列の固有分解に基づいている。
合成データセットと4つの実世界のデータセットを用いて、IKDが他の固有分解法よりも次元削減法として優れていることを示す。
- 参考スコア(独自算出の注目度): 3.066967635405937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The state-of-the-art dimensionality reduction approaches largely rely on
complicated optimization procedures. On the other hand, closed-form approaches
requiring merely eigen-decomposition do not have enough sophistication and
nonlinearity. In this paper, we propose a novel nonlinear dimensionality
reduction method -- Inverse Kernel Decomposition (IKD) -- based on an
eigen-decomposition of the sample covariance matrix of data. The method is
inspired by Gaussian process latent variable models (GPLVMs) and has comparable
performance with GPLVMs. To deal with very noisy data with weak correlations,
we propose two solutions -- blockwise and geodesic -- to make use of locally
correlated data points and provide better and numerically more stable latent
estimations. We use synthetic datasets and four real-world datasets to show
that IKD is a better dimensionality reduction method than other
eigen-decomposition-based methods, and achieves comparable performance against
optimization-based methods with faster running speeds. Open-source IKD
implementation in Python can be accessed at this
\url{https://github.com/JerrySoybean/ikd}.
- Abstract(参考訳): 最先端の次元削減アプローチは主に複雑な最適化手順に依存している。
一方、単に固有分解を必要とする閉形式アプローチは、洗練度と非線形性が十分ではない。
本稿では,データのサンプル共分散行列の固有分解に基づく非線形次元低減法である逆核分解(ikd)を提案する。
このメソッドはガウスのプロセス潜在変数モデル(GPLVM)にインスパイアされ、GPLVMと同等のパフォーマンスを持つ。
弱相関を持つ非常にノイズの多いデータを扱うために,我々は,局所相関データ点を利用するためのブロックワイズと測地線という2つの解を提案する。
我々は合成データセットと4つの実世界のデータセットを用いて、ikdが他の固有分解法よりも優れた次元性低減法であることを示す。
pythonのオープンソースikd実装は、この \url{https://github.com/jerrysoybean/ikd}でアクセスできる。
関連論文リスト
- Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Adaptive debiased SGD in high-dimensional GLMs with streaming data [4.704144189806667]
我々は、高次元一般化線形モデルにおいて、オンライン推論に新しいアプローチを導入する。
本手法はシングルパスモードで動作し,時間と空間の複雑さを著しく低減する。
提案手法は,ADL (Approximated Debiased Lasso) と呼ばれ,有界な個人確率条件の必要性を緩和するだけでなく,数値性能も著しく向上することを示した。
論文 参考訳(メタデータ) (2024-05-28T15:36:48Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - A graph convolutional autoencoder approach to model order reduction for
parametrized PDEs [0.8192907805418583]
本稿では,グラフ畳み込みオートエンコーダ(GCA-ROM)に基づく非線形モデルオーダー削減のためのフレームワークを提案する。
我々は、GNNを利用して、圧縮された多様体を符号化し、パラメタライズされたPDEの高速な評価を可能にする、非侵襲的でデータ駆動の非線形還元手法を開発した。
論文 参考訳(メタデータ) (2023-05-15T12:01:22Z) - Nonparametric learning of kernels in nonlocal operators [6.314604944530131]
非局所作用素におけるカーネル学習のための厳密な識別可能性解析および収束研究を提供する。
本稿では,新しいデータ適応型RKHS Tikhonov正規化手法を用いた非パラメトリック回帰アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T02:47:55Z) - Robust Regression via Model Based Methods [13.300549123177705]
モデルベース最適化 (MBO) [35, 36] に着想を得たアルゴリズムを提案し, 非対象を凸モデル関数に置き換える。
これをロバスト回帰に適用し、MBOの内部最適化を解くために、オンライン乗算器のオンライン交互方向法(OOADM) [50] の関数 SADM を提案する。
最後に、(a)アウトレーヤに対するl_pノルムのロバスト性、(b)オートエンコーダ法とマルチターゲット回帰法と比較して、提案したモデルベースアルゴリズムの効率性を実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T21:45:35Z) - A Local Similarity-Preserving Framework for Nonlinear Dimensionality
Reduction with Neural Networks [56.068488417457935]
本稿では,Vec2vecという新しい局所非線形手法を提案する。
ニューラルネットワークを訓練するために、マトリックスの近傍類似度グラフを構築し、データポイントのコンテキストを定義します。
8つの実データセットにおけるデータ分類とクラスタリングの実験により、Vec2vecは統計仮説テストにおける古典的な次元削減法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-10T23:10:47Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - FREDE: Linear-Space Anytime Graph Embeddings [12.53022591889574]
グラフのノードの低次元表現(埋め込み)は、データマイニング作業を容易にする。
FREquent Directions Embeddingは、類似度行列の行を個別に処理しながら、品質を反復的に改善するスケッチベースの手法である。
可変サイズのネットワークに対する評価は、FREDEがSVDと同等に動作し、多様なデータマイニングタスクにおける現在の最先端手法と競合することを示している。
論文 参考訳(メタデータ) (2020-06-08T16:51:24Z) - Learning to Guide Random Search [111.71167792453473]
我々は、潜在低次元多様体上の高次元関数の微分自由最適化を考える。
最適化を行いながらこの多様体を学習するオンライン学習手法を開発した。
本研究では,連続最適化ベンチマークと高次元連続制御問題について実験的に評価する。
論文 参考訳(メタデータ) (2020-04-25T19:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。