論文の概要: Towards Universal Neural Operators through Multiphysics Pretraining
- arxiv url: http://arxiv.org/abs/2511.10829v1
- Date: Thu, 13 Nov 2025 22:04:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.343695
- Title: Towards Universal Neural Operators through Multiphysics Pretraining
- Title(参考訳): 多物理前処理によるユニバーサルニューラル演算子の実現に向けて
- Authors: Mikhail Masliaev, Dmitry Gusarov, Ilya Markov, Alexander Hvatov,
- Abstract要約: 本稿では,これまで特定の問題にのみ適用されてきた変圧器型ニューラル演算子について検討する。
我々は、未知のパラメータへの外挿、新しい変数の取り込み、データセットからの転送など、多種多様なPDE問題のパフォーマンスを評価する。
- 参考スコア(独自算出の注目度): 40.321164373223475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although neural operators are widely used in data-driven physical simulations, their training remains computationally expensive. Recent advances address this issue via downstream learning, where a model pretrained on simpler problems is fine-tuned on more complex ones. In this research, we investigate transformer-based neural operators, which have previously been applied only to specific problems, in a more general transfer learning setting. We evaluate their performance across diverse PDE problems, including extrapolation to unseen parameters, incorporation of new variables, and transfer from multi-equation datasets. Our results demonstrate that advanced neural operator architectures can effectively transfer knowledge across PDE problems.
- Abstract(参考訳): ニューラル演算子は、データ駆動物理シミュレーションで広く使われているが、そのトレーニングは計算に高価である。
最近の進歩は下流学習を通じてこの問題に対処し、より単純な問題に事前訓練されたモデルをより複雑な問題に微調整する。
本研究では,従来特定の問題にのみ適用されていたトランスフォーマーベースのニューラル演算子について,より一般的な伝達学習環境で検討する。
我々は、未知のパラメータへの外挿、新しい変数の取り込み、マルチ方程式データセットからの転送など、多種多様なPDE問題に対する性能評価を行った。
この結果から,先進的なニューラルオペレーターアーキテクチャはPDE問題間で知識を効果的に伝達できることが示唆された。
関連論文リスト
- Convolutional-neural-operator-based transfer learning for solving PDEs [0.4125187280299247]
畳み込みニューラル演算子は、構造保存型連続離散同値を強制するために最近提案されたCNNベースのアーキテクチャである。
我々は、まず、ソースデータセットを使用して畳み込みニューラル演算子を事前訓練することで、モデルを数ショットの学習シナリオに拡張する。
ニューロン線形変換戦略はPDEの解法において最も高い代理精度を享受している。
論文 参考訳(メタデータ) (2025-12-19T03:55:20Z) - Principled Approaches for Extending Neural Architectures to Function Spaces for Operator Learning [78.88684753303794]
ディープラーニングは主にコンピュータビジョンと自然言語処理の応用を通じて進歩してきた。
ニューラル演算子は、関数空間間のマッピングにニューラルネットワークを一般化する原則的な方法である。
本稿では、無限次元関数空間間の写像の実践的な実装を構築するための鍵となる原理を同定し、蒸留する。
論文 参考訳(メタデータ) (2025-06-12T17:59:31Z) - Pseudo-Physics-Informed Neural Operators: Enhancing Operator Learning from Limited Data [17.835190275166408]
PPI-NO(Pseudo Physics-Informed Neural Operator)フレームワークを提案する。
PPI-NOは、基本微分作用素から導かれる偏微分方程式(PDE)を用いて、対象系に対する代理物理系を構築する。
このフレームワークは,データ共有シナリオにおける標準演算子学習モデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-02-04T19:50:06Z) - DeepONet as a Multi-Operator Extrapolation Model: Distributed Pretraining with Physics-Informed Fine-Tuning [6.635683993472882]
マルチオペレータ学習を実現するためのファインチューニング手法を提案する。
本手法は,事前学習における各種演算子からのデータを分散学習と組み合わせ,物理インフォームド手法によりゼロショット微調整が可能となる。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving [54.605760146540234]
DeltaPhiは、PDE解決タスクを、直接入力出力マッピングの学習から、類似の物理的状態間の残差学習に変換する、新しい学習フレームワークである。
大規模な実験は、様々な物理的システムにまたがって一貫した、重要な改善を示す。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - GNOT: A General Neural Operator Transformer for Operator Learning [34.79481320566005]
一般ニューラル演算子変換器(GNOT)は、演算子を学習するためのスケーラブルで効果的なフレームワークである。
新規な異種正規化アテンション層を設計することにより、複数の入力関数や不規則メッシュを扱うのに非常に柔軟である。
トランスアーキテクチャの大規模なモデルキャパシティは、我々のモデルに大規模なデータセットと実用的な問題にスケールする可能性を与えてくれます。
論文 参考訳(メタデータ) (2023-02-28T07:58:49Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。