論文の概要: Unified Framework for Spectral Dimensionality Reduction, Maximum
Variance Unfolding, and Kernel Learning By Semidefinite Programming: Tutorial
and Survey
- arxiv url: http://arxiv.org/abs/2106.15379v1
- Date: Tue, 29 Jun 2021 13:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:47:25.340474
- Title: Unified Framework for Spectral Dimensionality Reduction, Maximum
Variance Unfolding, and Kernel Learning By Semidefinite Programming: Tutorial
and Survey
- Title(参考訳): 半定義型プログラミングによるスペクトル次元低減・最大分散展開・カーネル学習のための統一フレームワーク:チュートリアルとサーベイ
- Authors: Benyamin Ghojogh, Ali Ghodsi, Fakhri Karray, Mark Crowley
- Abstract要約: まず、スペクトル次元減少法を、異なるカーネルを持つカーネル主成分分析(PCA)として統一する方法について説明する。
スペクトル法はカーネルPCAとして統一されているので、データの多様体を最大分散に展開するための最良のカーネルを学ばせましょう。
近接グラフを用いた教師付きMVUの様々なバージョン、クラスワイド展開、フィッシャー基準、色付きMVUについて説明する。
- 参考スコア(独自算出の注目度): 5.967999555890417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is a tutorial and survey paper on unification of spectral dimensionality
reduction methods, kernel learning by Semidefinite Programming (SDP), Maximum
Variance Unfolding (MVU) or Semidefinite Embedding (SDE), and its variants. We
first explain how the spectral dimensionality reduction methods can be unified
as kernel Principal Component Analysis (PCA) with different kernels. This
unification can be interpreted as eigenfunction learning or representation of
kernel in terms of distance matrix. Then, since the spectral methods are
unified as kernel PCA, we say let us learn the best kernel for unfolding the
manifold of data to its maximum variance. We first briefly introduce kernel
learning by SDP for the transduction task. Then, we explain MVU in detail.
Various versions of supervised MVU using nearest neighbors graph, by class-wise
unfolding, by Fisher criterion, and by colored MVU are explained. We also
explain out-of-sample extension of MVU using eigenfunctions and kernel mapping.
Finally, we introduce other variants of MVU including action respecting
embedding, relaxed MVU, and landmark MVU for big data.
- Abstract(参考訳): 本稿では,スペクトル次元減少法の統合,半有限計画法 (SDP) によるカーネル学習,最大変数展開法 (MVU) あるいは半有限埋め込み法 (SDE) とその変種に関するチュートリアルおよび調査論文である。
まず,スペクトル次元低減法をカーネル主成分分析 (pca) と異なるカーネルで統一する方法について述べる。
この統一は距離行列の観点から固有関数学習あるいはカーネルの表現と解釈できる。
そして、スペクトル法はカーネルPCAとして統一されているので、データの多様体を最大分散に展開するための最適なカーネルを学ばせましょう。
本稿ではまず,SDPによるカーネル学習について紹介する。
次に、MVUの詳細を説明する。
近接グラフを用いた教師付きMVUの様々なバージョン、クラスワイド展開、フィッシャー基準、色付きMVUについて説明する。
また,固有関数とカーネルマッピングを用いたmvuのサンプル外拡張についても述べる。
最後に、埋め込みを尊重するアクション、緩和されたMVU、ビッグデータのためのランドマークMVUなど、MVUの他のバリエーションを紹介します。
関連論文リスト
- New Equivalences Between Interpolation and SVMs: Kernels and Structured
Features [22.231455330003328]
本稿では、任意のカーネルを再生するヒルベルト空間において、ラベルに対するフレキシブルな生成モデルのクラスでSVPを証明するための新しいフレキシブルな分析フレームワークを提案する。
我々は、SVPが以前の作業でカバーされていない多くの興味深い設定で発生していることを示し、カーネルSVM分類のための新しい一般化結果を証明するためにこれらの結果を活用する。
論文 参考訳(メタデータ) (2023-05-03T17:52:40Z) - Kernel Subspace and Feature Extraction [7.424262881242935]
特徴部分空間の観点から,機械学習におけるカーネル手法について検討する。
我々は、ヒルシュフェルト-ゲベライン-レーニの最大相関関数からカーネルを構築し、最大相関カーネルを作成し、その情報理論の最適性を示す。
論文 参考訳(メタデータ) (2023-01-04T02:46:11Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - KERPLE: Kernelized Relative Positional Embedding for Length
Extrapolation [72.71398034617607]
KERPLEは、位置差のカーネル化によって外挿のための相対的な位置埋め込みを一般化するフレームワークである。
CPDカーネルの多様性により、原則的に長さ外挿を可能にする様々な RPE を導出できる。
論文 参考訳(メタデータ) (2022-05-20T01:25:57Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - A manifold learning approach for gesture identification from
micro-Doppler radar measurements [1.4610038284393163]
我々は、その次元を除いて多様体に関する知識を一切必要としない多様体学習のためのカーネルベースの近似を提案する。
マイクロドップラーデータセットを用いて,提案手法の性能を実証する。
論文 参考訳(メタデータ) (2021-10-04T19:08:44Z) - A theory of representation learning gives a deep generalisation of
kernel methods [22.260038428890383]
我々は、新しい無限幅制限、ベイズ表現学習限界を開発する。
有限幅モデルにおける表現学習ミラーリングを示す。
次に、この制限と目的を、カーネルメソッドの柔軟な、より深い一般化として使用できる可能性を紹介します。
論文 参考訳(メタデータ) (2021-08-30T10:07:37Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Learning Manifold Implicitly via Explicit Heat-Kernel Learning [63.354671267760516]
そこで,本研究では,熱カーネルを学習することで,多様体情報を暗黙的に取得する,暗黙的多様体学習の概念を提案する。
学習した熱カーネルは、データ生成のための深層生成モデル(DGM)やベイズ推論のためのスタイン変分勾配Descentなど、さまざまなカーネルベースの機械学習モデルに適用することができる。
論文 参考訳(メタデータ) (2020-10-05T03:39:58Z) - A Mean-Field Theory for Learning the Sch\"{o}nberg Measure of Radial
Basis Functions [13.503048325896174]
トレーニングサンプルから放射基底関数のシュンベルク積分表現の分布を学習する。
スケーリング限界において、ランゲヴィン粒子の経験的測度が、反射的イオ拡散ドリフト過程の法則に収束することを証明する。
論文 参考訳(メタデータ) (2020-06-23T21:04:48Z) - Improved guarantees and a multiple-descent curve for Column Subset
Selection and the Nystr\"om method [76.73096213472897]
我々は,データ行列のスペクトル特性を利用して近似保証を改良する手法を開発した。
我々のアプローチは、特異値減衰の既知の速度を持つデータセットのバウンダリが大幅に向上する。
RBFパラメータを変更すれば,改良された境界線と多重発振曲線の両方を実データセット上で観測できることが示される。
論文 参考訳(メタデータ) (2020-02-21T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。