論文の概要: ReBaNO: Reduced Basis Neural Operator Mitigating Generalization Gaps and Achieving Discretization Invariance
- arxiv url: http://arxiv.org/abs/2509.09611v1
- Date: Thu, 11 Sep 2025 16:52:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.481106
- Title: ReBaNO: Reduced Basis Neural Operator Mitigating Generalization Gaps and Achieving Discretization Invariance
- Title(参考訳): ReBaNO: 一般化ギャップを緩和し、離散化不変性を実現するバスニューラル演算子
- Authors: Haolan Zheng, Yanlai Chen, Jiequn Han, Yue Yu,
- Abstract要約: 本稿では,複数の異なる入力を持つPDE群を解決するために,新しいデータ型演算子学習アルゴリズムRebanoを提案する。
Reduced Basis Methodと最近導入されたGenerative Pre-Trained Physics-Informed Neural NetworksにインスパイアされたReBanoは、数学的に厳密な欲求アルゴリズムを使って、ネットワーク構造をゼロから適応的に構築する。
- 参考スコア(独自算出の注目度): 12.855964713673055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel data-lean operator learning algorithm, the Reduced Basis Neural Operator (ReBaNO), to solve a group of PDEs with multiple distinct inputs. Inspired by the Reduced Basis Method and the recently introduced Generative Pre-Trained Physics-Informed Neural Networks, ReBaNO relies on a mathematically rigorous greedy algorithm to build its network structure offline adaptively from the ground up. Knowledge distillation via task-specific activation function allows ReBaNO to have a compact architecture requiring minimal computational cost online while embedding physics. In comparison to state-of-the-art operator learning algorithms such as PCA-Net, DeepONet, FNO, and CNO, numerical results demonstrate that ReBaNO significantly outperforms them in terms of eliminating/shrinking the generalization gap for both in- and out-of-distribution tests and being the only operator learning algorithm achieving strict discretization invariance.
- Abstract(参考訳): 本稿では,複数の異なる入力を持つPDE群を解決するために,新しいデータ型演算子学習アルゴリズムRebanoを提案する。
Reduced Basis Methodと最近導入されたGenerative Pre-Trained Physics-Informed Neural NetworksにインスパイアされたReBanoは、数学的に厳密な欲求アルゴリズムを使って、ネットワーク構造をゼロから適応的に構築する。
タスク固有のアクティベーション関数による知識蒸留により、ReBaNOは、物理を埋め込んだまま、オンラインで最小の計算コストを必要とするコンパクトなアーキテクチャを持つことができる。
PCA-Net、DeepONet、FNO、CNOといった最先端の演算子学習アルゴリズムと比較して、ReBaNOは分布内および分布外両方の一般化ギャップを排除・縮小し、厳密な離散化不変性を達成する唯一の演算子学習アルゴリズムであることを示す。
関連論文リスト
- Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - Unsupervised Learning in Echo State Networks for Input Reconstruction [0.0]
エコー状態ネットワーク(ESN)は、リードアウト層のみをトレーニング可能な、リカレントニューラルネットワークのクラスである。
本研究では,読み出し層をトレーニングし,ESNに入力された入力時系列を再構成する入出力再構成(IR)に焦点を当てた。
論文 参考訳(メタデータ) (2025-01-20T11:16:44Z) - Efficient Training of Deep Neural Operator Networks via Randomized Sampling [0.0]
本稿では,DeepONetのトレーニングに採用するランダムサンプリング手法を提案する。
従来のトレーニングアプローチと比較して、テスト全体のエラーを同等あるいは低いものにしながら、トレーニング時間の大幅な削減を実証する。
この結果から,訓練中のトランクネットワーク入力にランダム化を組み込むことで,DeepONetの効率性とロバスト性を高めることが示唆された。
論文 参考訳(メタデータ) (2024-09-20T07:18:31Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。