論文の概要: Wiener Chaos Expansion based Neural Operator for Singular Stochastic Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2603.08219v1
- Date: Mon, 09 Mar 2026 10:50:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.811339
- Title: Wiener Chaos Expansion based Neural Operator for Singular Stochastic Partial Differential Equations
- Title(参考訳): ウィナーカオス展開に基づく特異確率部分微分方程式のニューラル演算子
- Authors: Dai Shi, Luke Thompson, Andi Han, Peiyan Hu, Junbin Gao, José Miguel Hernández-Lobato,
- Abstract要約: 本稿では,最近開発された Wiener Chaos Expansion (WCE) ベースのニューラル演算子 (NO) を特異偏微分方程式に適用する方法について検討する。
特徴量線形変調(FiLM)を利用して特異SPDEの解とその滑らかな残差の依存性を適切に把握する。
得られたWCE-FiLM-NOは、相対的な$L$損失、アウト・オブ・ディストリビューション、自己相関スコアによって測定された、$boldsymbol4$に対して優れた性能を示す。
- 参考スコア(独自算出の注目度): 58.188204772101756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore how our recently developed Wiener Chaos Expansion (WCE)-based neural operator (NO) can be applied to singular stochastic partial differential equations, e.g., the dynamic $\boldsymbolΦ^4_2$ model simulated in the recent works. Unlike the previous WCE-NO which solves SPDEs by simply inserting Wick-Hermite features into the backbone NO model, we leverage feature-wise linear modulation (FiLM) to appropriately capture the dependency between the solution of singular SPDE and its smooth remainder. The resulting WCE-FiLM-NO shows excellent performance on $\boldsymbolΦ^4_2$, as measured by relative $L_2$ loss, out-of-distribution $L_2$ loss, and autocorrelation score; all without the help of renormalisation factor. In addition, we also show the potential of simulating $\boldsymbolΦ^4_3$ data, which is more aligned with real scientific practice in statistical quantum field theory. To the best of our knowledge, this is among the first works to develop an efficient data-driven surrogate for the dynamical $\boldsymbolΦ^4_3$ model.
- Abstract(参考訳): 本稿では,最近開発された Wiener Chaos Expansion (WCE) ベースのニューラル作用素 (NO) が,最近の研究でシミュレートされた動的 $\boldsymbol ^4_2$ モデルにおいて,特異確率偏微分方程式にどのように適用できるかを考察する。
バックボーンNOモデルにWick-Hermite機能を挿入するだけでSPDEを解くWCE-NOとは異なり、特徴量線形変調(FiLM)を利用して特異SPDEの解とその滑らかな残差の依存性を適切に把握する。
得られた WCE-FiLM-NO は相対的な$L_2$損失,out-of-distribution $L_2$損失,autocorrelation スコアによって測定された $\boldsymbol ^4_2$ に優れた性能を示した。
さらに、統計量子場理論における実際の科学的実践とより整合した$\boldsymbol ^4_3$データをシミュレートする可能性も示している。
我々の知る限り、これは動的 $\boldsymbol ^4_3$ モデルのための効率的なデータ駆動サロゲートを開発するための最初の研究の1つである。
関連論文リスト
- Sampling non-log-concave densities via Hessian-free high-resolution dynamics [8.014749318189851]
本研究では,Hessian-free- resolution (HFHR) プロセスのターゲット分布 $(q)prop e-U(q) からのサンプリング問題について検討する。
我々は、$blana U$ linear growth が無限大であるという追加の仮定の下で、HFHR 力学の収縮は KLD よりも厳密に優れていることを示す。
論文 参考訳(メタデータ) (2026-01-06T05:38:09Z) - Expanding the Chaos: Neural Operator for Stochastic (Partial) Differential Equations [65.80144621950981]
我々はWienerカオス拡張(WCE)に基づいて、SPDEとSDEのためのニューラル演算子(NO)アーキテクチャを設計する。
WCEベースのニューラル演算子は、SDE/SPDEソリューション演算子を学習するための実用的でスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2026-01-03T00:59:25Z) - Gradient Descent as a Perceptron Algorithm: Understanding Dynamics and Implicit Acceleration [67.12978375116599]
勾配降下(GD)のステップが一般化されたパーセプトロンアルゴリズムのステップに還元されることを示す。
これは、ニューラルネットワークで観測される最適化力学と暗黙の加速現象を説明するのに役立つ。
論文 参考訳(メタデータ) (2025-12-12T14:16:35Z) - Learning quadratic neural networks in high dimensions: SGD dynamics and scaling laws [21.18373933718468]
高次元状態における二次活性化関数を持つ2層ニューラルネットワークの勾配に基づくトレーニングの最適化とサンプル複雑性について検討する。
本稿では,特徴学習体制における動態の急激な解析を行い,人口制限と有限サンプルの離散化について述べる。
論文 参考訳(メタデータ) (2025-08-05T17:57:56Z) - Distribution learning via neural differential equations: a nonparametric
statistical perspective [1.4436965372953483]
この研究は、確率変換によって訓練されたODEモデルによる分布学習のための最初の一般統計収束解析を確立する。
後者はクラス $mathcal F$ の$C1$-metric entropy で定量化できることを示す。
次に、この一般フレームワークを$Ck$-smoothターゲット密度の設定に適用し、関連する2つの速度場クラスに対する最小最適収束率を$mathcal F$:$Ck$関数とニューラルネットワークに設定する。
論文 参考訳(メタデータ) (2023-09-03T00:21:37Z) - Improving Sample Efficiency of Model-Free Algorithms for Zero-Sum Markov Games [66.2085181793014]
モデルフリーのステージベースQ-ラーニングアルゴリズムはモデルベースアルゴリズムと同じ$H$依存の最適性を享受できることを示す。
本アルゴリズムは,楽観的値関数と悲観的値関数のペアとして参照値関数を更新するキーとなる新しい設計を特徴とする。
論文 参考訳(メタデータ) (2023-08-17T08:34:58Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Single Trajectory Nonparametric Learning of Nonlinear Dynamics [8.438421942654292]
力学系の1つの軌道が与えられた場合、非パラメトリック最小二乗推定器(LSE)の性能を解析する。
我々は最近開発された情報理論手法を活用し、非仮説クラスに対するLSEの最適性を確立する。
我々は、リプシッツ力学、一般化線形モデル、再生ケルネルヒルベルト空間(RKHS)のある種のクラスで記述される関数によって記述される力学など、実用上の関心のあるいくつかのシナリオを専門とする。
論文 参考訳(メタデータ) (2022-02-16T19:38:54Z) - Neural Stochastic Partial Differential Equations [1.2183405753834562]
物理に着想を得たニューラルアーキテクチャの2つの重要なクラスの拡張を提供するニューラルSPDEモデルを導入する。
一方、一般的な神経-通常、制御され、粗い-微分方程式モデルをすべて拡張し、入ってくる情報を処理することができる。
一方、関数空間間のマッピングをモデル化するニューラルネットワークの最近の一般化であるNeural Operatorsを拡張して、複雑なSPDEソリューション演算子を学習することができる。
論文 参考訳(メタデータ) (2021-10-19T20:35:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。