論文の概要: A Deep Learning Framework for Multi-Operator Learning: Architectures and Approximation Theory
- arxiv url: http://arxiv.org/abs/2510.25379v1
- Date: Wed, 29 Oct 2025 10:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.405907
- Title: A Deep Learning Framework for Multi-Operator Learning: Architectures and Approximation Theory
- Title(参考訳): マルチオペレータ学習のためのディープラーニングフレームワーク:アーキテクチャと近似理論
- Authors: Adrien Weihs, Jingmin Sun, Zecheng Zhang, Hayden Schaeffer,
- Abstract要約: 本研究では,演算子の集合を学習する問題について検討し,理論的および経験的進展を両立させる。
1つのネットワークがパラメトリック関数によってパラメータ化された演算子の連続体を表す多重演算子学習と、2つの個別の演算子を学習し、各演算子を独立に学習する2つの条件を区別する。
全体として、この研究は複数の演算子にまたがるスケーラブルな演算子学習の統一的理論と実践的基盤を確立する。
- 参考スコア(独自算出の注目度): 2.2731895181875346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While many problems in machine learning focus on learning mappings between finite-dimensional spaces, scientific applications require approximating mappings between function spaces, i.e., operators. We study the problem of learning collections of operators and provide both theoretical and empirical advances. We distinguish between two regimes: (i) multiple operator learning, where a single network represents a continuum of operators parameterized by a parametric function, and (ii) learning several distinct single operators, where each operator is learned independently. For the multiple operator case, we introduce two new architectures, $\mathrm{MNO}$ and $\mathrm{MONet}$, and establish universal approximation results in three settings: continuous, integrable, or Lipschitz operators. For the latter, we further derive explicit scaling laws that quantify how the network size must grow to achieve a target approximation accuracy. For learning several single operators, we develop a framework for balancing architectural complexity across subnetworks and show how approximation order determines computational efficiency. Empirical experiments on parametric PDE benchmarks confirm the strong expressive power and efficiency of the proposed architectures. Overall, this work establishes a unified theoretical and practical foundation for scalable neural operator learning across multiple operators.
- Abstract(参考訳): 機械学習における多くの問題は有限次元空間間の写像の学習に焦点が当てられているが、科学的な応用には関数空間間の写像、すなわち作用素の近似が必要である。
本研究では,演算子の集合を学習する問題について検討し,理論的および経験的進展を両立させる。
我々は二つの体制を区別する。
一 パラメトリック関数によりパラメータ化された演算子の連続体を表す複数の演算子学習
(ii) 個々の演算子を独立に学習する複数の個別の演算子を学習する。
複数の演算子の場合、$\mathrm{MNO}$と$\mathrm{MONet}$という2つの新しいアーキテクチャを導入し、連続、可積分、リプシッツ演算子という3つの設定で普遍近似結果を確立する。
後者については、ターゲット近似精度を達成するために、ネットワークサイズがどのように成長するかを定量化する明示的なスケーリング法則をさらに導出する。
複数の演算子を学習するために、サブネットワーク間のアーキテクチャ複雑性のバランスをとるためのフレームワークを開発し、近似順序が計算効率をどのように決定するかを示す。
パラメトリックPDEベンチマークの実証実験により、提案アーキテクチャの強い表現力と効率性が確認された。
全体として、この研究は、複数の演算子をまたいだスケーラブルなニューラル演算子学習の統一的理論と実践的基盤を確立する。
関連論文リスト
- Principled Approaches for Extending Neural Architectures to Function Spaces for Operator Learning [78.88684753303794]
ディープラーニングは主にコンピュータビジョンと自然言語処理の応用を通じて進歩してきた。
ニューラル演算子は、関数空間間のマッピングにニューラルネットワークを一般化する原則的な方法である。
本稿では、無限次元関数空間間の写像の実践的な実装を構築するための鍵となる原理を同定し、蒸留する。
論文 参考訳(メタデータ) (2025-06-12T17:59:31Z) - New universal operator approximation theorem for encoder-decoder architectures (Preprint) [0.0]
幅広いエンコーダ・デコーダアーキテクチャのクラスに対する新しい普遍作用素近似定理を提案する。
本研究では、$mathcalC(mathcalX, MathcalY)$で連続作用素を近似することに焦点を当て、$mathcalX$と$mathcalY$は無限次元ノルム空間または計量空間である。
論文 参考訳(メタデータ) (2025-03-31T13:43:21Z) - Operator Learning of Lipschitz Operators: An Information-Theoretic Perspective [2.375038919274297]
この研究は、リプシッツ連続作用素の一般クラスに対する神経作用素近似の複雑さに対処する。
我々の主な貢献は、2つの近似設定におけるリプシッツ作用素の計量エントロピーの低い境界を確立することである。
使用したアクティベーション関数にかかわらず、近似精度が$epsilon$に達する神経オペレーターアーキテクチャは、$epsilon-1$で指数関数的に大きいサイズでなければならない。
論文 参考訳(メタデータ) (2024-06-26T23:36:46Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Multi-Operational Mathematical Derivations in Latent Space [16.255836734376206]
数学的操作を明示的な幾何学的変換としてモデル化する、異なる多動作表現パラダイムを導入する。
我々は61Kの前提と6つの演算子からなる1.7Mの導出ステップからなる大規模データセットを構築した。
アーキテクチャの選択は、トレーニングのダイナミクス、構造組織、潜在空間の一般化に大きく影響を与える可能性があることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:33:07Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。