論文の概要: From Theory to Application: A Practical Introduction to Neural Operators in Scientific Computing
- arxiv url: http://arxiv.org/abs/2503.05598v1
- Date: Fri, 07 Mar 2025 17:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:20:21.718225
- Title: From Theory to Application: A Practical Introduction to Neural Operators in Scientific Computing
- Title(参考訳): 理論から応用へ:科学計算における神経オペレーターの実践的紹介
- Authors: Prashant K. Jha,
- Abstract要約: この研究は、Deep Operator Networks (DeepONet) や主成分分析に基づくニューラルネットワーク (PCANet) などの基礎モデルをカバーする。
レビューでは、ベイズ推論問題の代理として神経オペレーターを適用し、精度を維持しながら後部推論を加速させる効果を示した。
残差ベースのエラー修正やマルチレベルトレーニングなど、これらの問題に対処する新たな戦略を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This focused review explores a range of neural operator architectures for approximating solutions to parametric partial differential equations (PDEs), emphasizing high-level concepts and practical implementation strategies. The study covers foundational models such as Deep Operator Networks (DeepONet), Principal Component Analysis-based Neural Networks (PCANet), and Fourier Neural Operators (FNO), providing comparative insights into their core methodologies and performance. These architectures are demonstrated on two classical linear parametric PDEs: the Poisson equation and linear elastic deformation. Beyond forward problem-solving, the review delves into applying neural operators as surrogates in Bayesian inference problems, showcasing their effectiveness in accelerating posterior inference while maintaining accuracy. The paper concludes by discussing current challenges, particularly in controlling prediction accuracy and generalization. It outlines emerging strategies to address these issues, such as residual-based error correction and multi-level training. This review can be seen as a comprehensive guide to implementing neural operators and integrating them into scientific computing workflows.
- Abstract(参考訳): この焦点を絞ったレビューでは、パラメトリック偏微分方程式(PDE)に対する解を近似するための様々なニューラルオペレーターアーキテクチャについて検討し、ハイレベルな概念と実践的な実装戦略を強調している。
この研究は、Deep Operator Networks (DeepONet)、Principal Component Analysis-based Neural Networks (PCANet)、Fourier Neural Operators (FNO)といった基礎モデルをカバーし、コアの方法論とパフォーマンスについて比較した知見を提供する。
これらの構造は、ポアソン方程式と線形弾性変形の2つの古典線形パラメトリックPDE上で実証される。
前方の問題解決以外にも、ベイズ推論問題において神経オペレーターを代理として適用することに注力し、精度を維持しながら後部推論を加速する効果を示した。
本稿では,現在の課題,特に予測精度と一般化の制御について論じる。
残差ベースのエラー修正やマルチレベルトレーニングなど、これらの問題に対処する新たな戦略を概説する。
このレビューは、ニューラルネットワークを実装し、それらを科学計算ワークフローに統合するための包括的なガイドと見なすことができる。
関連論文リスト
- Quantifying Training Difficulty and Accelerating Convergence in Neural Network-Based PDE Solvers [9.936559796069844]
ニューラルネットワークに基づくPDEソルバのトレーニングダイナミクスについて検討する。
統一分割(PoU)と分散スケーリング(VS)という2つの手法が有効ランクを高めていることがわかった。
PINNやDeep Ritz、オペレータ学習フレームワークのDeepOnetなど、人気のあるPDE解決フレームワークを使用した実験では、これらのテクニックが収束を継続的に加速することを確認した。
論文 参考訳(メタデータ) (2024-10-08T19:35:19Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - DeepONet for Solving Nonlinear Partial Differential Equations with Physics-Informed Training [2.44755919161855]
非線形偏微分方程式(PDE)の解法における演算子学習、特にDeepONetの利用について検討する。
本研究では,物理インフォームドトレーニングにおけるDeepONetの性能について検討し,(1)ディープブランチとトランクネットワークの近似能力,(2)ソボレフノルムの一般化誤差の2点に着目した。
論文 参考訳(メタデータ) (2024-10-06T03:43:56Z) - Operator Learning: Algorithms and Analysis [8.305111048568737]
オペレータ学習(Operator learning)は、機械学習から、関数のバナッハ空間間の近似演算子へのアイデアの適用を指す。
このレビューは、有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功に基づいて構築されたニューラル演算子に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-24T04:40:27Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Improved architectures and training algorithms for deep operator
networks [0.0]
演算子学習技術は無限次元バナッハ空間間の写像を学習するための強力なツールとして登場した。
我々は,ニューラルタンジェントカーネル(NTK)理論のレンズを用いて,ディープオペレータネットワーク(DeepONets)のトレーニングダイナミクスを解析した。
論文 参考訳(メタデータ) (2021-10-04T18:34:41Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Learning the Travelling Salesperson Problem Requires Rethinking
Generalization [9.176056742068813]
トラベリングセールスパーソン問題(TSP)のようなグラフ最適化問題に対するニューラルネットワークソルバのエンドツーエンドトレーニングは近年,関心が高まっている。
最先端の学習駆動アプローチは、自明に小さなサイズで訓練された場合、古典的な解法と密接に関係するが、実践的な規模で学習ポリシーを大規模に一般化することはできない。
この研究は、トレーニングで見られるものよりも大きいインスタンスへの一般化を促進する、原則化されたバイアス、モデルアーキテクチャ、学習アルゴリズムを特定するために、最近の論文を統一するエンドツーエンドのニューラルネットワークパイプラインを提示している。
論文 参考訳(メタデータ) (2020-06-12T10:14:15Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。