論文の概要: Functional SDE approximation inspired by a deep operator network
architecture
- arxiv url: http://arxiv.org/abs/2402.03028v1
- Date: Mon, 5 Feb 2024 14:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:42:32.670889
- Title: Functional SDE approximation inspired by a deep operator network
architecture
- Title(参考訳): ディープオペレータネットワークアーキテクチャにインスパイアされた機能的SDE近似
- Authors: Martin Eigel, Charles Miranda
- Abstract要約: ディープニューラルネットワークによる微分方程式(SDE)の近似解の導出と解析を行う。
このアーキテクチャはDeep Operator Networks(DeepONets)の概念にインスパイアされたもので、ネットワークに表される基盤の削減という観点からの演算子学習に基づいている。
提案したSDEONetアーキテクチャは,Wienerカオス拡張の最適スパース切り込みを学習することにより,指数複雑性の問題を緩和することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A novel approach to approximate solutions of Stochastic Differential
Equations (SDEs) by Deep Neural Networks is derived and analysed. The
architecture is inspired by the notion of Deep Operator Networks (DeepONets),
which is based on operator learning in function spaces in terms of a reduced
basis also represented in the network. In our setting, we make use of a
polynomial chaos expansion (PCE) of stochastic processes and call the
corresponding architecture SDEONet. The PCE has been used extensively in the
area of uncertainty quantification (UQ) with parametric partial differential
equations. This however is not the case with SDE, where classical sampling
methods dominate and functional approaches are seen rarely. A main challenge
with truncated PCEs occurs due to the drastic growth of the number of
components with respect to the maximum polynomial degree and the number of
basis elements. The proposed SDEONet architecture aims to alleviate the issue
of exponential complexity by learning an optimal sparse truncation of the
Wiener chaos expansion. A complete convergence and complexity analysis is
presented, making use of recent Neural Network approximation results. Numerical
experiments illustrate the promising performance of the suggested approach in
1D and higher dimensions.
- Abstract(参考訳): ディープニューラルネットワークによる確率微分方程式(sdes)の近似解に対する新しいアプローチを導出し,解析した。
このアーキテクチャはDeep Operator Networks (DeepONets) の概念にインスパイアされたもので、これは関数空間における演算子学習に基づいており、ネットワーク内でも表現される基底が減っている。
本稿では,確率過程の多項式カオス展開(PCE)を利用し,対応するアーキテクチャをSDEONetと呼ぶ。
PCEはパラメトリック偏微分方程式を持つ不確実量化(UQ)領域で広く用いられている。
しかし、SDEでは古典的なサンプリング手法が支配的であり、機能的なアプローチはほとんど見られない。
切り詰められたPCEに対する主な課題は、最大多項式次数と基底要素数に対する成分数の急激な増加である。
提案したSDEONetアーキテクチャは,Wienerカオス拡張の最適スパース切り込みを学習することにより,指数複雑性の問題を軽減することを目的としている。
近年のニューラルネットワーク近似結果を用いて,完全収束解析と複雑性解析を行った。
数値実験は1次元および高次元における提案手法の有望な性能を示す。
関連論文リスト
- Functional Tensor Decompositions for Physics-Informed Neural Networks [8.66932181641177]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の近似において連続的かつ増加する公約を示した。
本稿では,古典変数分離法を一般化したPINNバージョンを提案する。
提案手法は,複雑な高次元PDEの性能向上により,PINNの性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-08-23T14:24:43Z) - Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Nonlinear model reduction for operator learning [1.0364028373854508]
本稿では,ニューラルネットワークとカーネル主成分分析(KPCA)を組み合わせた演算子学習のための効率的なフレームワークを提案する。
本結果は,POD-DeepONetよりもKPCA-DeepONetの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-27T16:24:26Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Connections between Numerical Algorithms for PDEs and Neural Networks [8.660429288575369]
偏微分方程式(PDE)とニューラルネットワークの数値アルゴリズム間の多数の構造的関係について検討する。
私たちのゴールは、豊富な数学的基礎をPDEの世界からニューラルネットワークに移すことです。
論文 参考訳(メタデータ) (2021-07-30T16:42:45Z) - A Deep Learning approach to Reduced Order Modelling of Parameter
Dependent Partial Differential Equations [0.2148535041822524]
パラメーター対解写像の効率的な近似法として,Deep Neural Networks に基づく構築的アプローチを開発した。
特に, パラメタライズド・アドベクション拡散PDEについて検討し, 強輸送場の存在下で方法論を検証した。
論文 参考訳(メタデータ) (2021-03-10T17:01:42Z) - Parametric Complexity Bounds for Approximating PDEs with Neural Networks [41.46028070204925]
pdeの係数が小さなニューラルネットワークで表現できる場合、入力された$d$でスケール的に解を近似するために必要なパラメータは、ニューラルネットワークのパラメータ数に比例することを証明する。
我々の証明は、PDEの解に収束する適切な空間における勾配降下をシミュレートするニューラルネットワークの構築に基づいている。
論文 参考訳(メタデータ) (2021-03-03T02:42:57Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。