論文の概要: One model to solve them all: 2BSDE families via neural operators
- arxiv url: http://arxiv.org/abs/2511.01125v1
- Date: Mon, 03 Nov 2025 00:27:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.073016
- Title: One model to solve them all: 2BSDE families via neural operators
- Title(参考訳): これらすべてを解く1つのモデル:ニューラル演算子による2BSDE族
- Authors: Takashi Furuya, Anastasis Kratsios, Dylan Possamaï, Bogdan Raonić,
- Abstract要約: 本稿では,古典的ニューラル作用素モデルの軽微な生成変種を導入し,後方微分方程式の無限族を解く。
最初の主要な結果は、幅広いファミリーに関連付けられた解演算子は、適切なニューラル演算子モデルによって近似可能であることを示している。
- 参考スコア(独自算出の注目度): 13.843154029532608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a mild generative variant of the classical neural operator model, which leverages Kolmogorov--Arnold networks to solve infinite families of second-order backward stochastic differential equations ($2$BSDEs) on regular bounded Euclidean domains with random terminal time. Our first main result shows that the solution operator associated with a broad range of $2$BSDE families is approximable by appropriate neural operator models. We then identify a structured subclass of (infinite) families of $2$BSDEs whose neural operator approximation requires only a polynomial number of parameters in the reciprocal approximation rate, as opposed to the exponential requirement in general worst-case neural operator guarantees.
- Abstract(参考訳): 我々は、コルモゴロフ-アルノルドネットワークを利用して、ランダム終端時間を持つ正規有界ユークリッド領域上の2階後方確率微分方程式(2$BSDEs)の無限族を解く古典的ニューラル作用素モデルの穏やかな生成変種を導入する。
最初の主な結果は、幅広い2$BSDEファミリーに関連付けられた解演算子は、適切なニューラル演算子モデルによって近似可能であることを示している。
次に、ニューラル演算子近似が相互近似率の多項式数のみを必要とする2$BSDEsの(無限の)ファミリーの構造的サブクラスを、一般的な最悪のニューラル演算子の保証における指数的要求とは対照的に同定する。
関連論文リスト
- Optimal Convergence Rates for Neural Operators [2.9388890036358104]
我々は、隠れたニューロンの数と一般化に必要な第2段階のサンプルの数に制限を与える。
ニューラル作用素のキーとなる応用は、偏微分方程式の解作用素に対する代理写像の学習である。
論文 参考訳(メタデータ) (2024-12-23T12:31:38Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - MgNO: Efficient Parameterization of Linear Operators via Multigrid [4.096453902709292]
我々は、ニューロン間の線形演算子をパラメータ化するために多重格子構造を利用するMgNOを紹介する。
MgNOは、他のCNNベースのモデルと比べてトレーニングの容易さが優れている。
論文 参考訳(メタデータ) (2023-10-16T13:01:35Z) - From Kernel Methods to Neural Networks: A Unifying Variational
Formulation [25.6264886382888]
演算子と一般ラドン領域ノルムに依存する統一正規化関数を提案する。
我々のフレームワークは、多種多様な正規化演算子、または同等に、幅広い浅層ニューラルネットワークに対して、普遍的な近似を保証する。
論文 参考訳(メタデータ) (2022-06-29T13:13:53Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z) - Neural Networks are Convex Regularizers: Exact Polynomial-time Convex
Optimization Formulations for Two-layer Networks [70.15611146583068]
我々は、線形整列ユニット(ReLU)を用いた2層ニューラルネットワークのトレーニングの正確な表現を開発する。
我々の理論は半無限双対性と最小ノルム正規化を利用する。
論文 参考訳(メタデータ) (2020-02-24T21:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。