論文の概要: Towards Universal Neural Operators through Multiphysics Pretraining
- arxiv url: http://arxiv.org/abs/2511.10829v1
- Date: Thu, 13 Nov 2025 22:04:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.343695
- Title: Towards Universal Neural Operators through Multiphysics Pretraining
- Title(参考訳): 多物理前処理によるユニバーサルニューラル演算子の実現に向けて
- Authors: Mikhail Masliaev, Dmitry Gusarov, Ilya Markov, Alexander Hvatov,
- Abstract要約: 本稿では,これまで特定の問題にのみ適用されてきた変圧器型ニューラル演算子について検討する。
我々は、未知のパラメータへの外挿、新しい変数の取り込み、データセットからの転送など、多種多様なPDE問題のパフォーマンスを評価する。
- 参考スコア(独自算出の注目度): 40.321164373223475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although neural operators are widely used in data-driven physical simulations, their training remains computationally expensive. Recent advances address this issue via downstream learning, where a model pretrained on simpler problems is fine-tuned on more complex ones. In this research, we investigate transformer-based neural operators, which have previously been applied only to specific problems, in a more general transfer learning setting. We evaluate their performance across diverse PDE problems, including extrapolation to unseen parameters, incorporation of new variables, and transfer from multi-equation datasets. Our results demonstrate that advanced neural operator architectures can effectively transfer knowledge across PDE problems.
- Abstract(参考訳): ニューラル演算子は、データ駆動物理シミュレーションで広く使われているが、そのトレーニングは計算に高価である。
最近の進歩は下流学習を通じてこの問題に対処し、より単純な問題に事前訓練されたモデルをより複雑な問題に微調整する。
本研究では,従来特定の問題にのみ適用されていたトランスフォーマーベースのニューラル演算子について,より一般的な伝達学習環境で検討する。
我々は、未知のパラメータへの外挿、新しい変数の取り込み、マルチ方程式データセットからの転送など、多種多様なPDE問題に対する性能評価を行った。
この結果から,先進的なニューラルオペレーターアーキテクチャはPDE問題間で知識を効果的に伝達できることが示唆された。
関連論文リスト
- DeepONet as a Multi-Operator Extrapolation Model: Distributed Pretraining with Physics-Informed Fine-Tuning [6.635683993472882]
マルチオペレータ学習を実現するためのファインチューニング手法を提案する。
本手法は,事前学習における各種演算子からのデータを分散学習と組み合わせ,物理インフォームド手法によりゼロショット微調整が可能となる。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - GNOT: A General Neural Operator Transformer for Operator Learning [34.79481320566005]
一般ニューラル演算子変換器(GNOT)は、演算子を学習するためのスケーラブルで効果的なフレームワークである。
新規な異種正規化アテンション層を設計することにより、複数の入力関数や不規則メッシュを扱うのに非常に柔軟である。
トランスアーキテクチャの大規模なモデルキャパシティは、我々のモデルに大規模なデータセットと実用的な問題にスケールする可能性を与えてくれます。
論文 参考訳(メタデータ) (2023-02-28T07:58:49Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。