論文の概要: Simultaneously Solving FBSDEs and their Associated Semilinear Elliptic PDEs with Small Neural Operators
- arxiv url: http://arxiv.org/abs/2410.14788v2
- Date: Wed, 28 May 2025 14:24:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 15:04:26.73815
- Title: Simultaneously Solving FBSDEs and their Associated Semilinear Elliptic PDEs with Small Neural Operators
- Title(参考訳): 小型ニューラル演算子を用いたFBSDEとその関連半線形楕円型PDEの同時解法
- Authors: Takashi Furuya, Anastasis Kratsios,
- Abstract要約: 前向きの微分方程式は、最適制御、ゲーム理論、経済学、数学ファイナンス、強化学習において重要な役割を果たす。
利用可能なFBSDEソルバは、textitindividual FBSDEsで動作しており、FBSDEの大規模なファミリーを解決するための計算可能な戦略を提供することはできない。
textitNeural演算子(NOs)は、分離されたFBSDEの大規模なファミリーをテキスト同期で解決するための代替アプローチを提供する。
- 参考スコア(独自算出の注目度): 8.517406772939292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Forward-backwards stochastic differential equations (FBSDEs) play an important role in optimal control, game theory, economics, mathematical finance, and in reinforcement learning. Unfortunately, the available FBSDE solvers operate on \textit{individual} FBSDEs, meaning that they cannot provide a computationally feasible strategy for solving large families of FBSDEs, as these solvers must be re-run several times. \textit{Neural operators} (NOs) offer an alternative approach for \textit{simultaneously solving} large families of decoupled FBSDEs by directly approximating the solution operator mapping \textit{inputs:} terminal conditions and dynamics of the backwards process to \textit{outputs:} solutions to the associated FBSDE. Though universal approximation theorems (UATs) guarantee the existence of such NOs, these NOs are unrealistically large. Upon making only a few simple theoretically-guided tweaks to the standard convolutional NO build, we confirm that ``small'' NOs can uniformly approximate the solution operator to structured families of FBSDEs with random terminal time, uniformly on suitable compact sets determined by Sobolev norms using a logarithmic depth, a constant width, and a polynomial rank in the reciprocal approximation error. This result is rooted in our second result, and main contribution to the NOs for PDE literature, showing that our convolutional NOs of similar depth and width but grow only \textit{quadratically} (at a dimension-free rate) when uniformly approximating the solution operator of the associated class of semilinear Elliptic PDEs to these families of FBSDEs. A key insight into how NOs work we uncover is that the convolutional layers of our NO can approximately implement the fixed point iteration used to prove the existence of a unique solution to these semilinear Elliptic PDEs.
- Abstract(参考訳): 前方後方確率微分方程式(FBSDEs)は、最適制御、ゲーム理論、経済学、数学ファイナンス、強化学習において重要な役割を果たす。
残念なことに、利用可能な FBSDE ソルバは \textit{individual} FBSDEs で動作している。
\textit{Neural operator} (NOs) は、解作用素の直接近似により、分離された FBSDE の大きな族である \textit{inputs:} に対して、後方プロセスの端末条件と力学を、関連する FBSDE への解に変換することで、代替的なアプローチを提供する。
普遍近似定理(UAT)はそのようなNOの存在を保証するが、これらのNOは非現実的に大きい。
標準的な畳み込みNO構築に対して、数個の簡単な理論的な手直しを行うと、 ``small'' NOs は、対数深さ、定数幅、および逆近似誤差の多項式ランクを用いてソボレフノルムによって決定される適切なコンパクト集合に対して、ランダム終端時間を持つ FBSDEs の構造された族に対する解作用素を均一に近似できることを確認した。
この結果は、FBSDEs のこれらの族に対する半線形楕円型 PDE の解作用素を均一に近似する際に、我々の畳み込み NOs が類似の深さと幅を持つが、(次元自由率で) \textit{quadratically} だけ成長することを示す。
NOの動作に関する重要な洞察は、NOの畳み込み層が、これらの半線形楕円型PDEに対するユニークなソリューションの存在を証明するために使われる固定点反復を概ね実装できるということです。
関連論文リスト
- Neural Expectation Operators [2.1756081703276]
本稿では,非線形予測によるあいまいさをモデル化するためのパラダイムであるtextbfMeasure Learningを紹介する。
我々はニューラル期待演算子を、ドライバがニューラルネットワークによってパラメータ化される後方微分方程式(BSDEs)の解として定義する。
本稿では,建築設計による凸性などの重要な公理特性の強化のための建設的手法を提案する。
論文 参考訳(メタデータ) (2025-07-13T06:19:28Z) - Sunflowers and Ramsey problems for restricted intersections [1.2201929092786905]
F"uredi's famous semilattice lemma の変種が発見され、これは強力なデルタ系法における鍵となるツールである。
また,本手法の応用として,F"uredi's famous semilattice lemma の変種を求める。
論文 参考訳(メタデータ) (2025-04-21T17:46:21Z) - Solving Roughly Forced Nonlinear PDEs via Misspecified Kernel Methods and Neural Networks [3.1895609521267563]
非線形偏微分方程式 (PDE) の解を数値的に近似するためにガウス過程 (GP) やニューラルネットワーク (NN) を用いる。
本稿では,GPカーネルのオーバースムース化による収束保証を保ちながら,大まかに強制された非線形PDEを扱う手法の一般化を提案する。
これは、PDE制約上の経験的$L2$-lossを経験的負ソボレフノルムに置き換えることと同値である。
論文 参考訳(メタデータ) (2025-01-28T17:58:01Z) - Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization [77.3396841985172]
我々は、構造化された非極小最適化問題の解法として、2時間勾配上昇(TTGDA)を統一的に解析する。
我々の貢献はTTGDAアルゴリズムを設計することであり、設定を超えて効果的です。
論文 参考訳(メタデータ) (2024-08-21T20:14:54Z) - Accelerated Variance-Reduced Forward-Reflected Methods for Root-Finding Problems [8.0153031008486]
そこで本研究では,Nesterovの高速前方反射法と分散還元法を新たに提案し,根絶問題の解法を提案する。
我々のアルゴリズムは単ループであり、ルートフィリング問題に特化して設計された非バイアス分散還元推定器の新たなファミリーを利用する。
論文 参考訳(メタデータ) (2024-06-04T15:23:29Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Nearly Optimal Regret for Decentralized Online Convex Optimization [53.433398074919]
分散オンライン凸最適化(D-OCO)は,局所計算と通信のみを用いて,グローバルな損失関数の列を最小化することを目的としている。
我々は凸関数と強い凸関数の残差をそれぞれ低減できる新しいD-OCOアルゴリズムを開発した。
我々のアルゴリズムは、$T$、$n$、$rho$の点でほぼ最適です。
論文 参考訳(メタデータ) (2024-02-14T13:44:16Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Deep Learning of Delay-Compensated Backstepping for Reaction-Diffusion
PDEs [2.2869182375774613]
複数の演算子は異なるPDEクラスからPDEシステムの制御に現れる。
DeepONet近似非線形作用素(DeepONet-approximated linear operator)は、グールサット形式の1つの双曲的PDEと長方形上の1つの放物的PDEによって定義される作用素のカスケード/合成である。
遅延補償型PDEバックステッピングコントローラでは、プラント状態の$L2$ノルムと入力遅延状態の$H1$ノルムの指数的安定性が保証される。
論文 参考訳(メタデータ) (2023-08-21T06:42:33Z) - An Optimal Stochastic Algorithm for Decentralized Nonconvex Finite-sum
Optimization [25.21457349137344]
私たちは、DEARESTが少なくとも$mathcal O(+sqrtmnLvarepsilon-2)$ 1次オラクル(IFO)コールと$mathcal O(Lvarepsilon-2/sqrt1-lambda_W)$通信ラウンドを必要とすることを示す証拠を示します。
論文 参考訳(メタデータ) (2022-10-25T11:37:11Z) - Neural Network Approximations of PDEs Beyond Linearity: A
Representational Perspective [40.964402478629495]
非線形PDEの解を近似するためのニューラルネットワークの表現力について検討する。
Emphnonlinear elliptic variational PDEsとして知られるPDEのクラスを扱うことで、ニューラルネットワークは次元性の呪いを避けることができることを示す。
論文 参考訳(メタデータ) (2022-10-21T16:53:18Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - DASHA: Distributed Nonconvex Optimization with Communication
Compression, Optimal Oracle Complexity, and No Client Synchronization [77.34726150561087]
我々は,分散最適化問題に対する新しい手法であるDASHAを開発し,解析する。
MARINAとは異なり、新しいDASHAとDASHA-MVRは圧縮ベクターのみを送信し、ノードを同期しないため、学習をより実用的なものにしている。
論文 参考訳(メタデータ) (2022-02-02T20:10:40Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Deep Network Approximation for Smooth Functions [9.305095040004156]
幅$mathcalO(Nln N)$と深さ$mathcalO(L L)$の深いReLUネットワークは、ほぼ最適近似誤差で$fin Cs([0,1]d)$を近似できることを示す。
我々の推定は、それぞれ$NinmathbbN+$と$LinmathbbN+$で指定された任意の幅と深さに対して有効であるという意味では漸近的ではない。
論文 参考訳(メタデータ) (2020-01-09T15:06:10Z) - On Gradient Descent Ascent for Nonconvex-Concave Minimax Problems [86.92205445270427]
非コンミニマックス問題、$min_mathbfx max_mathhidoty f(mathbfdoty)$を効率的に考える。
論文 参考訳(メタデータ) (2019-06-02T03:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。