論文の概要: Minimax Optimal Kernel Operator Learning via Multilevel Training
- arxiv url: http://arxiv.org/abs/2209.14430v3
- Date: Mon, 24 Jul 2023 09:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 00:52:13.766888
- Title: Minimax Optimal Kernel Operator Learning via Multilevel Training
- Title(参考訳): マルチレベルトレーニングによるミニマックス最適カーネルオペレータ学習
- Authors: Jikai Jin, Yiping Lu, Jose Blanchet, Lexing Ying
- Abstract要約: 2つの無限次元ソボレフ再生核ヒルベルト空間間のヒルベルト・シュミット作用素の学習の統計的極限について検討する。
無限次元関数空間間の線形作用素を学習する際に最適なマルチレベルカーネル演算子学習アルゴリズムを開発する。
- 参考スコア(独自算出の注目度): 11.36492861074981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning mappings between infinite-dimensional function spaces has achieved
empirical success in many disciplines of machine learning, including generative
modeling, functional data analysis, causal inference, and multi-agent
reinforcement learning. In this paper, we study the statistical limit of
learning a Hilbert-Schmidt operator between two infinite-dimensional Sobolev
reproducing kernel Hilbert spaces. We establish the information-theoretic lower
bound in terms of the Sobolev Hilbert-Schmidt norm and show that a
regularization that learns the spectral components below the bias contour and
ignores the ones that are above the variance contour can achieve the optimal
learning rate. At the same time, the spectral components between the bias and
variance contours give us flexibility in designing computationally feasible
machine learning algorithms. Based on this observation, we develop a multilevel
kernel operator learning algorithm that is optimal when learning linear
operators between infinite-dimensional function spaces.
- Abstract(参考訳): 無限次元関数空間間の学習マッピングは、生成モデリング、関数データ分析、因果推論、マルチエージェント強化学習など、機械学習の多くの分野において経験的な成功を収めてきた。
本稿では,2つの無限次元ソボレフ再生成核ヒルベルト空間間のヒルベルト・シュミット作用素を学習する統計的極限について検討する。
ソボレフ・ヒルベルト=シュミットノルムの観点で情報理論上の下限を確立し、バイアス輪郭の下のスペクトル成分を学習し、分散輪郭より上にあるものを無視する正規化が最適な学習率を達成することを示す。
同時に、バイアスと分散輪郭の間のスペクトル成分は、計算可能な機械学習アルゴリズムを設計する際の柔軟性をもたらす。
そこで本研究では,無限次元関数空間間の線形作用素の学習に最適なマルチレベルカーネル演算子学習アルゴリズムを提案する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - How Feature Learning Can Improve Neural Scaling Laws [86.9540615081759]
我々は,カーネル限界を超えたニューラルスケーリング法則の解法モデルを開発する。
モデルのサイズ、トレーニング時間、利用可能なデータの総量によるパフォーマンスのスケールアップ方法を示す。
論文 参考訳(メタデータ) (2024-09-26T14:05:32Z) - Operator Learning Using Random Features: A Tool for Scientific Computing [3.745868534225104]
教師付き演算子学習センターは、無限次元空間間のマップを推定するためにトレーニングデータを使用する。
本稿では,関数値のランダム特徴量法を提案する。
これは非線形問題に対して実用的な教師付き演算子学習アーキテクチャをもたらす。
論文 参考訳(メタデータ) (2024-08-12T23:10:39Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Physics-informed Spectral Learning: the Discrete Helmholtz--Hodge
Decomposition [0.0]
Espathらによる物理インフォームドスペクトル学習(PiSL)をさらに発展させる。
この物理インフォームド統計学習フレームワークでは、対応する係数を持つフーリエ基底関数のスパース集合を適応的に構築する。
我々のPiSL計算フレームワークはスペクトル収束(指数収束)を楽しみます。
我々は1993年の衛星データによる「世紀の嵐」など,様々な数値例で本手法の有効性を評価する。
論文 参考訳(メタデータ) (2023-02-21T23:33:29Z) - An Introduction to Kernel and Operator Learning Methods for
Homogenization by Self-consistent Clustering Analysis [0.48747801442240574]
本稿では,演算子学習パラダイムの数学的基盤に関する詳細な分析について述べる。
提案したカーネル演算子学習法は,グラフカーネルネットワークを用いて,マルチスケール均質化のための機械的縮小順序法を考案する。
論文 参考訳(メタデータ) (2022-12-01T02:36:16Z) - NOMAD: Nonlinear Manifold Decoders for Operator Learning [17.812064311297117]
関数空間における教師付き学習は、機械学習研究の新たな領域である。
関数空間における非線形部分多様体の有限次元表現を学習できる非線形デコーダマップを備えた新しい演算子学習フレームワークであるNOMADについて述べる。
論文 参考訳(メタデータ) (2022-06-07T19:52:44Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Non-parametric Active Learning and Rate Reduction in Many-body Hilbert
Space with Rescaled Logarithmic Fidelity [4.781805457699204]
量子と量子に着想を得た機械学習において、最初のステップはヒルベルト空間として知られる量子空間にデータを埋め込むことである。
量子空間における再スケール対数忠実度(RLF)と非パラメトリック能動学習(RLF-NAL)を提案する。
以上の結果から,Hilbert空間における機械学習は,最大符号化レート削減の原理に適合していることが示された。
論文 参考訳(メタデータ) (2021-07-01T03:13:16Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。