論文の概要: Sparse RBF Networks for PDEs and nonlocal equations: function space theory, operator calculus, and training algorithms
- arxiv url: http://arxiv.org/abs/2601.17562v1
- Date: Sat, 24 Jan 2026 19:19:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.925045
- Title: Sparse RBF Networks for PDEs and nonlocal equations: function space theory, operator calculus, and training algorithms
- Title(参考訳): PDEと非局所方程式のためのスパースRBFネットワーク:関数空間論、演算子計算、および訓練アルゴリズム
- Authors: Zihan Shao, Konstantin Pieper, Xiaochuan Tian,
- Abstract要約: 我々は、幅広いラジアル基底関数(RBF)のクラスに対する解空間の統一的な記述を提供する。
本稿では,カーネル構造を明示することにより,微分演算子と非局所演算子の両方の準解析的評価が可能となることを示す。
特に、二階最適化、内重訓練、ネットワーク適応性、異方性カーネルパラメータ化の役割を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a systematic analysis and extension of the sparse radial basis function network (SparseRBFnet) previously introduced for solving nonlinear partial differential equations (PDEs). Based on its adaptive-width shallow kernel network formulation, we further investigate its function-space characterization, operator evaluation, and computational algorithm. We provide a unified description of the solution space for a broad class of radial basis functions (RBFs). Under mild assumptions, this space admits a characterization as a Besov space, independent of the specific kernel choice. We further demonstrate how the explicit kernel-based structure enables quasi-analytical evaluation of both differential and nonlocal operators, including fractional Laplacians. On the computational end, we study the adaptive-width network and related three-phase training strategy through a comparison with variants concerning the modeling and algorithmic details. In particular, we assess the roles of second-order optimization, inner-weight training, network adaptivity, and anisotropic kernel parameterizations. Numerical experiments on high-order, fractional, and anisotropic PDE benchmarks illustrate the empirical insensitivity to kernel choice, as well as the resulting trade-offs between accuracy, sparsity, and computational cost. Collectively, these results consolidate and generalize the theoretical and computational framework of SparseRBFnet, supporting accurate sparse representations with efficient operator evaluation and offering theory-grounded guidance for algorithmic and modeling choices.
- Abstract(参考訳): 本研究では、非線形偏微分方程式(PDE)を解くために以前に導入されたスパースラジアル基底関数ネットワーク(SparseRBFnet)の体系的解析と拡張を行う。
適応幅浅層カーネルネットワークの定式化に基づき,関数空間の特性,演算子評価,計算アルゴリズムについて検討する。
幅広いラジアル基底関数(RBF)のクラスに対する解空間の統一的な記述を提供する。
穏やかな仮定の下で、この空間は特定のカーネルの選択とは独立にベソフ空間として特徴づけられる。
さらに、明示的なカーネルベース構造が、分数ラプラシアンを含む微分作用素と非局所作用素の両方の準解析的評価を可能にすることを実証する。
本稿では,適応幅ネットワークと関連する3相学習戦略について,モデリングとアルゴリズムの詳細に関する変種との比較により検討する。
特に,2次最適化,内重トレーニング,ネットワーク適応性,異方性カーネルパラメータ化の役割を評価する。
高次、分数、異方性PDEベンチマークの数値実験では、カーネル選択に対する経験的不感度が示され、その結果、精度、空間性、計算コストのトレードオフが示されている。
これらの結果は、SparseRBFnetの理論的および計算的枠組みを統合し、効率的な演算子評価による正確なスパース表現をサポートし、アルゴリズムとモデリングの選択のための理論的なガイダンスを提供する。
関連論文リスト
- Expanding the Chaos: Neural Operator for Stochastic (Partial) Differential Equations [65.80144621950981]
我々はWienerカオス拡張(WCE)に基づいて、SPDEとSDEのためのニューラル演算子(NO)アーキテクチャを設計する。
WCEベースのニューラル演算子は、SDE/SPDEソリューション演算子を学習するための実用的でスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2026-01-03T00:59:25Z) - From Local Interactions to Global Operators: Scalable Gaussian Process Operator for Physical Systems [7.807210884802377]
本稿では,カーネル設計による空間性,局所性,構造情報を活かした,新しいスケーラブルなGPOを提案する。
我々のフレームワークは、様々な離散化スケールで常に高い精度を達成できることを実証する。
論文 参考訳(メタデータ) (2025-06-18T22:40:52Z) - Solving Nonlinear PDEs with Sparse Radial Basis Function Networks [0.0]
本稿では,スパルスラジアル基底関数(RBF)ネットワークを用いた非線形PDEの解法を提案する。
この研究は、従来のRBFコロケーション法における長年にわたる課題と、物理インフォームドニューラルネットワーク(PINN)とガウス過程(GP)アプローチの限界によって動機付けられている。
論文 参考訳(メタデータ) (2025-05-12T17:12:53Z) - From Theory to Application: A Practical Introduction to Neural Operators in Scientific Computing [0.0]
この研究は、Deep Operator Networks (DeepONet) や主成分分析に基づくニューラルネットワーク (PCANet) などの基礎モデルをカバーする。
レビューでは、ベイズ推論問題の代理として神経オペレーターを適用し、精度を維持しながら後部推論を加速させる効果を示した。
残差ベースのエラー修正やマルチレベルトレーニングなど、これらの問題に対処する新たな戦略を概説する。
論文 参考訳(メタデータ) (2025-03-07T17:25:25Z) - Orthogonal greedy algorithm for linear operator learning with shallow neural network [7.9228092825552]
我々は、線形演算子学習のタスクにグリージーアルゴリズムの適用を拡大する。
新しいセミインナー製品におけるカーネル推定のために,新しいグレディアルゴリズムを開発した。
我々は、近似率をさらに向上させるために、ポイントワイズカーネル推定のためのOGAを導入する。
論文 参考訳(メタデータ) (2025-01-06T06:18:38Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。