論文の概要: Sample complexity and effective dimension for regression on manifolds
- arxiv url: http://arxiv.org/abs/2006.07642v3
- Date: Fri, 16 Oct 2020 14:58:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:01:48.160326
- Title: Sample complexity and effective dimension for regression on manifolds
- Title(参考訳): 多様体上の回帰に対するサンプル複雑性と有効次元
- Authors: Andrew McRae and Justin Romberg and Mark Davenport
- Abstract要約: ヒルベルト空間法を再現したカーネルを用いた多様体上の回帰理論を考える。
多様体上の滑らかな函数のある空間は、多様体次元に応じて拡大する複雑性を持つ実効有限次元であることが示される。
- 参考スコア(独自算出の注目度): 13.774258153124205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the theory of regression on a manifold using reproducing kernel
Hilbert space methods. Manifold models arise in a wide variety of modern
machine learning problems, and our goal is to help understand the effectiveness
of various implicit and explicit dimensionality-reduction methods that exploit
manifold structure. Our first key contribution is to establish a novel
nonasymptotic version of the Weyl law from differential geometry. From this we
are able to show that certain spaces of smooth functions on a manifold are
effectively finite-dimensional, with a complexity that scales according to the
manifold dimension rather than any ambient data dimension. Finally, we show
that given (potentially noisy) function values taken uniformly at random over a
manifold, a kernel regression estimator (derived from the spectral
decomposition of the manifold) yields minimax-optimal error bounds that are
controlled by the effective dimension.
- Abstract(参考訳): 我々は、カーネルヒルベルト空間法を用いて多様体上の回帰の理論を考える。
我々の目標は、多様体構造を利用する様々な暗黙的および明示的な次元的還元法の有効性を理解することにある。
最初の重要な貢献は、微分幾何学から新しいワイル法則の漸近版を確立することである。
このことから、多様体上の滑らかな函数のある空間が、任意の周囲のデータ次元よりも多様体次元に従ってスケールする複雑性を持つ実効有限次元であることが示せる。
最後に、多様体上のランダムに取られる(潜在的に騒がしい)関数値が与えられたとき、(多様体のスペクトル分解に由来する)カーネル回帰推定器は、有効次元によって制御されるミニマックス最適誤差境界を生成する。
関連論文リスト
- Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Manifold Learning by Mixture Models of VAEs for Inverse Problems [1.5749416770494704]
任意の位相の多様体を表現するために,変分オートエンコーダの混合モデルを学習する。
学習多様体に制限されたデータ忠実度項を最小化することにより、逆問題の解法に使用する。
本手法を低次元トイの例に応用し, 脱臭・電気インピーダンストモグラフィーにも応用した。
論文 参考訳(メタデータ) (2023-03-27T14:29:04Z) - The Exact Sample Complexity Gain from Invariances for Kernel Regression [37.74032673086741]
実際には、モデルの不変性を符号化することで、サンプルの複雑さが向上する。
コンパクト多様体上でのカーネルリッジ回帰に対する最小値の最適値を与える。
我々の結果は任意の滑らかなコンパクトリー群作用、あるいは正次元の群に対しても成り立つ。
論文 参考訳(メタデータ) (2023-03-24T20:47:31Z) - Convolutional Filtering on Sampled Manifolds [122.06927400759021]
サンプル多様体上の畳み込みフィルタリングは連続多様体フィルタリングに収束することを示す。
本研究は,ナビゲーション制御の問題点を実証的に明らかにした。
論文 参考訳(メタデータ) (2022-11-20T19:09:50Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Inferring Manifolds From Noisy Data Using Gaussian Processes [17.166283428199634]
ほとんどの既存の多様体学習アルゴリズムは、元のデータを低次元座標で置き換える。
本稿では,これらの問題に対処するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:50:38Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Disentangling by Subspace Diffusion [72.1895236605335]
データ多様体の完全教師なし分解は、多様体の真の計量が知られている場合、可能であることを示す。
我々の研究は、教師なしメートル法学習が可能であるかどうかという問題を減らし、表現学習の幾何学的性質に関する統一的な洞察を提供する。
論文 参考訳(メタデータ) (2020-06-23T13:33:19Z) - Learning to Guide Random Search [111.71167792453473]
我々は、潜在低次元多様体上の高次元関数の微分自由最適化を考える。
最適化を行いながらこの多様体を学習するオンライン学習手法を開発した。
本研究では,連続最適化ベンチマークと高次元連続制御問題について実験的に評価する。
論文 参考訳(メタデータ) (2020-04-25T19:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。