論文の概要: Learning Operators through Coefficient Mappings in Fixed Basis Spaces
- arxiv url: http://arxiv.org/abs/2510.10350v1
- Date: Sat, 11 Oct 2025 21:47:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.901497
- Title: Learning Operators through Coefficient Mappings in Fixed Basis Spaces
- Title(参考訳): 固定基底空間における係数写像による演算子学習
- Authors: Chuqi Chen, Yang Xiang, Weihong Zhang,
- Abstract要約: 本稿では,所定の基底関数によって誘導される係数空間の演算子を学習するFB-C2CNetを提案する。
FB-C2CNetは高い精度と計算効率を実現し、実用的な演算子学習タスクに強力な可能性を示す。
- 参考スコア(独自算出の注目度): 8.02814277441424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Operator learning has emerged as a powerful paradigm for approximating solution operators of partial differential equations (PDEs) and other functional mappings. \textcolor{red}{}{Classical approaches} typically adopt a pointwise-to-pointwise framework, where input functions are sampled at prescribed locations and mapped directly to solution values. We propose the Fixed-Basis Coefficient to Coefficient Operator Network (FB-C2CNet), which learns operators in the coefficient space induced by prescribed basis functions. In this framework, the input function is projected onto a fixed set of basis functions (e.g., random features or finite element bases), and the neural operator predicts the coefficients of the solution function in the same or another basis. By decoupling basis selection from network training, FB-C2CNet reduces training complexity, enables systematic analysis of how basis choice affects approximation accuracy, and clarifies what properties of coefficient spaces (such as effective rank and coefficient variations) are critical for generalization. Numerical experiments on Darcy flow, Poisson equations in regular, complex, and high-dimensional domains, and elasticity problems demonstrate that FB-C2CNet achieves high accuracy and computational efficiency, showing its strong potential for practical operator learning tasks.
- Abstract(参考訳): 演算子学習は、偏微分方程式(PDE)やその他の関数写像の解演算子を近似するための強力なパラダイムとして登場した。
\textcolor{red}{Classical approach} は通常ポイントワイズ・ポイントワイズ・フレームワークを採用しており、入力関数は所定の場所でサンプリングされ、直接ソリューション値にマッピングされる。
本稿では,所定の基底関数によって誘導される係数空間の演算子を学習するFB-C2CNetを提案する。
この枠組みでは、入力関数は基底関数の固定セット(例えば、ランダムな特徴や有限要素基底)に投影され、ニューラル演算子は、解関数の係数を同じまたは他の基底で予測する。
ネットワークトレーニングから基底選択を分離することにより、FB-C2CNetはトレーニングの複雑さを減らし、基底選択が近似精度にどのように影響するかを体系的に分析し、係数空間のどの特性(有効ランクや係数の変動など)が一般化に重要なのかを明らかにする。
常・複雑・高次元領域におけるダーシー流、ポアソン方程式、および弾性問題に関する数値実験により、FB-C2CNetが高精度かつ計算効率を達成し、実用的な演算子学習タスクに強い可能性を示す。
関連論文リスト
- Outcome-Based Online Reinforcement Learning: Algorithms and Fundamental Limits [58.63897489864948]
結果に基づくフィードバックによる強化学習は、根本的な課題に直面します。
適切なアクションにクレジットを割り当てるには?
本稿では,一般関数近似を用いたオンラインRLにおけるこの問題の包括的解析を行う。
論文 参考訳(メタデータ) (2025-05-26T17:44:08Z) - Learning Nonlinear Finite Element Solution Operators using Multilayer Perceptrons and Energy Minimization [0.5898893619901381]
偏微分方程式(PDE)による非線形問題に対する解演算子学習法を開発し,評価する。
アプローチは有限要素の離散化に基づいており、多層パーセプトロン(MLP)による解演算子を表現することを目的としている。
我々は,各要素に局所的にエネルギーを組み立てることに基づいて,効率的な並列化可能な学習アルゴリズムを定式化する。
論文 参考訳(メタデータ) (2024-12-05T20:19:16Z) - Generalization Bounds and Model Complexity for Kolmogorov-Arnold Networks [1.5850926890180461]
Kolmogorov-Arnold Network (KAN)は、Liuらによって最近提案されたネットワーク構造である。
活性化関数を備えたカンの一般化境界を確立することにより、カンの厳密な理論的解析を提供する。
論文 参考訳(メタデータ) (2024-10-10T15:23:21Z) - Basis-to-Basis Operator Learning Using Function Encoders [16.128154294012543]
本稿では、ヒルベルト空間上の演算子を学習するための新しいアプローチであるB2B演算子学習について述べる。
固有分解や特異値分解と直接類似した演算子学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-09-30T19:18:34Z) - Operator Learning Using Random Features: A Tool for Scientific Computing [3.745868534225104]
教師付き演算子学習センターは、無限次元空間間のマップを推定するためにトレーニングデータを使用する。
本稿では,関数値のランダム特徴量法を提案する。
これは非線形問題に対して実用的な教師付き演算子学習アーキテクチャをもたらす。
論文 参考訳(メタデータ) (2024-08-12T23:10:39Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。