論文の概要: Learning on manifolds without manifold learning
- arxiv url: http://arxiv.org/abs/2402.12687v1
- Date: Tue, 20 Feb 2024 03:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:23:33.113028
- Title: Learning on manifolds without manifold learning
- Title(参考訳): 多様体学習のない多様体上の学習
- Authors: H. N. Mhaskar and Ryan O'Dowd
- Abstract要約: 未知分布からランダムに描画されたデータに基づく関数近似は、機械学習において重要な問題である。
データは高次元ユークリッド空間の未知の部分多様体からサンプリングされると仮定する。
我々の手法は、その次元以外の多様体に関する情報を得るために、データの事前処理を必要としない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Function approximation based on data drawn randomly from an unknown
distribution is an important problem in machine learning. In contrast to the
prevalent paradigm of solving this problem by minimizing a loss functional, we
have given a direct one-shot construction together with optimal error bounds
under the manifold assumption; i.e., one assumes that the data is sampled from
an unknown sub-manifold of a high dimensional Euclidean space. A great deal of
research deals with obtaining information about this manifold, such as the
eigendecomposition of the Laplace-Beltrami operator or coordinate charts, and
using this information for function approximation. This two step approach
implies some extra errors in the approximation stemming from basic quantities
of the data in addition to the errors inherent in function approximation. In
Neural Networks, 132:253268, 2020, we have proposed a one-shot direct method to
achieve function approximation without requiring the extraction of any
information about the manifold other than its dimension. However, one cannot
pin down the class of approximants used in that paper.
In this paper, we view the unknown manifold as a sub-manifold of an ambient
hypersphere and study the question of constructing a one-shot approximation
using the spherical polynomials based on the hypersphere. Our approach does not
require preprocessing of the data to obtain information about the manifold
other than its dimension. We give optimal rates of approximation for relatively
"rough" functions.
- Abstract(参考訳): 未知分布からランダムに引き出されたデータに基づく関数近似は、機械学習において重要な問題である。
損失汎函数を最小化してこの問題を解決する一般的なパラダイムとは対照的に、多様体の仮定の下での最適誤差境界(英語版)と共に直接ワンショット構成を与え、すなわち、そのデータは高次元ユークリッド空間の未知の部分多様体からサンプリングされると仮定する。
たくさんの研究がラプラス・ベルトラミ作用素や座標チャートの固有分解のようなこの多様体に関する情報を取得し、この情報を関数近似に利用する。
この2段階のアプローチは、関数近似に固有の誤差に加えて、データの基本量に由来する近似のいくつかの余分な誤差を暗示する。
ニューラルネットワーク, 132:253268, 2020では, 次元以外の多様体に関する情報の抽出を必要とせず, 関数近似のワンショット直接法を提案している。
しかし、この論文で用いられる近似のクラスをピン留めすることはできない。
本稿では,未知多様体を周辺超球面の部分多様体として捉え,超球面に基づく球面多項式を用いて一発近似を構築する問題を考察する。
我々の手法は、その次元以外の多様体に関する情報を得るために、データの事前処理を必要としない。
相対的「ラフ」関数に対する近似の最適速度を与える。
関連論文リスト
- Efficient Prior Calibration From Indirect Data [5.588334720483076]
本稿では,データから先行モデルを学習すること,特にノイズ観測プロセスを通じて得られた間接データの多元的実現から先行モデルを学習することに関心がある。
フォワードモデルの効率的な残差ベースニューラル演算子近似を提案し,これをプッシュフォワードマップと同時学習できることを示した。
論文 参考訳(メタデータ) (2024-05-28T08:34:41Z) - Sketching the Heat Kernel: Using Gaussian Processes to Embed Data [4.220336689294244]
本稿では, ガウス過程の実現に基づく低次元ユークリッド空間にデータを埋め込む新しい非決定論的手法を提案する。
我々の手法は、その強靭性から外れ値へのさらなる優位性を示す。
論文 参考訳(メタデータ) (2024-03-01T22:56:19Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Implicit Manifold Gaussian Process Regression [49.0787777751317]
ガウス過程の回帰は、よく校正された不確実性推定を提供するために広く用いられている。
これは、データが実際に存在する暗黙の低次元多様体のため、高次元データに苦しむ。
本稿では,データ(ラベル付きおよびラベルなし)から直接暗黙構造を完全に微分可能な方法で推定できる手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T09:52:48Z) - Generative Modeling on Manifolds Through Mixture of Riemannian Diffusion Processes [57.396578974401734]
一般多様体上に生成拡散過程を構築するための原理的枠組みを導入する。
従来の拡散モデルの認知的アプローチに従う代わりに、橋梁プロセスの混合を用いて拡散過程を構築する。
混合過程を幾何学的に理解し,データ点への接する方向の重み付け平均としてドリフトを導出する。
論文 参考訳(メタデータ) (2023-10-11T06:04:40Z) - Posterior and Computational Uncertainty in Gaussian Processes [52.26904059556759]
ガウスのプロセスはデータセットのサイズとともに違法にスケールする。
多くの近似法が開発されており、必然的に近似誤差を導入している。
この余分な不確実性の原因は、計算が限られているため、近似後部を使用すると完全に無視される。
本研究では,観測された有限個のデータと有限個の計算量の両方から生じる組合せ不確実性を一貫した推定を行う手法の開発を行う。
論文 参考訳(メタデータ) (2022-05-30T22:16:25Z) - Inferring Manifolds From Noisy Data Using Gaussian Processes [17.166283428199634]
ほとんどの既存の多様体学習アルゴリズムは、元のデータを低次元座標で置き換える。
本稿では,これらの問題に対処するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:50:38Z) - Distributed Learning via Filtered Hyperinterpolation on Manifolds [2.2046162792653017]
本稿では,実数値関数を多様体上で学習する問題について検討する。
大規模なデータセットを扱うという問題に触発され、並列データ処理アプローチが提示される。
学習関数の近似品質と多様体全体の量的関係を証明した。
論文 参考訳(メタデータ) (2020-07-18T10:05:18Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Improved guarantees and a multiple-descent curve for Column Subset
Selection and the Nystr\"om method [76.73096213472897]
我々は,データ行列のスペクトル特性を利用して近似保証を改良する手法を開発した。
我々のアプローチは、特異値減衰の既知の速度を持つデータセットのバウンダリが大幅に向上する。
RBFパラメータを変更すれば,改良された境界線と多重発振曲線の両方を実データセット上で観測できることが示される。
論文 参考訳(メタデータ) (2020-02-21T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。