論文の概要: Polynomial Chaos Expansion for Operator Learning
- arxiv url: http://arxiv.org/abs/2508.20886v1
- Date: Thu, 28 Aug 2025 15:14:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.474272
- Title: Polynomial Chaos Expansion for Operator Learning
- Title(参考訳): 演算子学習のための多項カオス拡張
- Authors: Himanshu Sharma, Lukáš Novák, Michael D. Shields,
- Abstract要約: 演算子学習(OL)が科学機械学習(SciML)の強力なツールとして登場した
本稿では,OL法としてカオス展開(PCE)を導入する。
PCEは不確実性定量化(UQ)に広く利用されている。
- 参考スコア(独自算出の注目度): 7.03807193409036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator learning (OL) has emerged as a powerful tool in scientific machine learning (SciML) for approximating mappings between infinite-dimensional functional spaces. One of its main applications is learning the solution operator of partial differential equations (PDEs). While much of the progress in this area has been driven by deep neural network-based approaches such as Deep Operator Networks (DeepONet) and Fourier Neural Operator (FNO), recent work has begun to explore traditional machine learning methods for OL. In this work, we introduce polynomial chaos expansion (PCE) as an OL method. PCE has been widely used for uncertainty quantification (UQ) and has recently gained attention in the context of SciML. For OL, we establish a mathematical framework that enables PCE to approximate operators in both purely data-driven and physics-informed settings. The proposed framework reduces the task of learning the operator to solving a system of equations for the PCE coefficients. Moreover, the framework provides UQ by simply post-processing the PCE coefficients, without any additional computational cost. We apply the proposed method to a diverse set of PDE problems to demonstrate its capabilities. Numerical results demonstrate the strong performance of the proposed method in both OL and UQ tasks, achieving excellent numerical accuracy and computational efficiency.
- Abstract(参考訳): 演算子学習(OL)は、無限次元関数空間間のマッピングを近似するための科学機械学習(SciML)の強力なツールとして登場した。
主な応用の1つは偏微分方程式(PDE)の解作用素を学習することである。
この領域の進歩の多くは、Deep Operator Networks(DeepONet)やFunier Neural Operator(FNO)といった、ディープニューラルネットワークベースのアプローチによって推進されているが、最近の研究は、OLの従来の機械学習手法を探求し始めている。
本研究では,多項式カオス展開(PCE)をOL法として導入する。
PCEは不確実性定量化(UQ)に広く使われており、近年SciMLの文脈で注目されている。
OLの場合、PCEが純粋にデータ駆動と物理情報処理の両方で演算子を近似できる数学的枠組みを確立する。
提案フレームワークは,PCE係数の方程式系を解くために,演算子を学習する作業を削減する。
さらに、このフレームワークはPCE係数を余分な計算コストなしで後処理することでUQを提供する。
提案手法を多種多様なPDE問題に適用し,その能力を実証する。
数値計算は,OLタスクとUQタスクの両方において提案手法の強い性能を示し,高い数値精度と計算効率を実現する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Data-Efficient Operator Learning via Unsupervised Pretraining and In-Context Learning [45.78096783448304]
本研究では,PDE演算子学習のための教師なし事前学習を設計する。
シミュレーションソリューションを使わずにラベルなしのPDEデータをマイニングし、物理に着想を得た再構成ベースのプロキシタスクでニューラルネットワークを事前訓練する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Efficient Neural PDE-Solvers using Quantization Aware Training [71.0934372968972]
量子化は、性能を維持しながら推論の計算コストを下げることができることを示す。
4つの標準PDEデータセットと3つのネットワークアーキテクチャの結果、量子化対応のトレーニングは、設定と3桁のFLOPで機能することがわかった。
論文 参考訳(メタデータ) (2023-08-14T09:21:19Z) - Learning Generic Solutions for Multiphase Transport in Porous Media via
the Flux Functions Operator [0.0]
DeepDeepONetは、レンダリングフラックスDEを高速化する強力なツールとして登場した。
我々は、入力ペア出力の観測を伴わずにこのマッピングを実現するために、Physical-In DeepONets (PI-DeepONets) を用いている。
論文 参考訳(メタデータ) (2023-07-03T21:10:30Z) - DOSnet as a Non-Black-Box PDE Solver: When Deep Learning Meets Operator
Splitting [12.655884541938656]
我々はDeep Operator-Splitting Network (DOSnet) と名付けた学習型PDEソルバを開発した。
DOSnetは物理規則から構築され、基礎となるダイナミクスを管理する演算子は学習可能なパラメータを含む。
我々は、演算子分解可能な微分方程式のいくつかのタイプでそれを訓練し、検証する。
論文 参考訳(メタデータ) (2022-12-11T18:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。