論文の概要: An Evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator Learning Network
- arxiv url: http://arxiv.org/abs/2509.00663v1
- Date: Sun, 31 Aug 2025 02:17:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.331647
- Title: An Evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator Learning Network
- Title(参考訳): Replica-Exchange-based Physics-informed Operator Learning Networkのための進化的多目的最適化
- Authors: Binghang Lu, Changhong Mou, Guang Lin,
- Abstract要約: 本稿では,レプリカに基づく物理インフォームド演算子学習ネットワークのための進化的多目的最適化を提案する。
我々のフレームワークは、精度、ノイズ、不確実性を定量化する能力において、一般的な演算子学習方法よりも一貫して優れています。
- 参考スコア(独自算出の注目度): 7.1950116347185995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose an evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator learning Network, which is a novel operator learning network to efficiently solve parametric partial differential equations. In forward and inverse settings, this operator learning network only admits minimum requirement of noisy observational data. While physics-informed neural networks and operator learning approaches such as Deep Operator Networks and Fourier Neural Operators offer promising alternatives to traditional numerical solvers, they struggle with balancing operator and physics losses, maintaining robustness under noisy or sparse data, and providing uncertainty quantification. The proposed framework addresses these limitations by integrating: (i) evolutionary multi-objective optimization to adaptively balance operator and physics-based losses in the Pareto front; (ii) replica exchange stochastic gradient Langevin dynamics to improve global parameter-space exploration and accelerate convergence; and (iii) built-in Bayesian uncertainty quantification from stochastic sampling. The proposed operator learning method is tested numerically on several different problems including one-dimensional Burgers equation and the time-fractional mixed diffusion-wave equation. The results indicate that our framework consistently outperforms the general operator learning methods in accuracy, noise robustness, and the ability to quantify uncertainty.
- Abstract(参考訳): 本稿では,パラメトリック偏微分方程式を効率よく解く新しい演算子学習ネットワークであるReplica-Exchange-based Physics-informed Operator Learning Networkの進化的多目的最適化を提案する。
前方および逆の設定では、この演算子学習ネットワークはノイズの多い観測データの最小限の要件しか認めない。
物理インフォームドニューラルネットワークとDeep Operator NetworksやFourier Neural Operatorsといった演算子学習アプローチは、従来の数値解法に代わる有望な代替手段を提供する一方で、演算子と物理損失のバランスをとることに苦労し、ノイズやスパースデータの下で堅牢性を維持し、不確実な定量化を提供する。
提案されたフレームワークは、以下の制限に対処する。
(i)Pareto前線における演算子と物理に基づく損失の適応的バランスのための進化的多目的最適化
(II)大域的パラメータ空間探索の改善と収束促進のためのレプリカ交換確率勾配ランゲヴィンダイナミクス
3)確率的サンプリングによるベイズの不確かさの定量化を組み込んだもの。
提案手法は,1次元バーガース方程式や時間-屈折混合拡散波方程式など,いくつかの異なる問題に対して数値的に検証する。
その結果、我々のフレームワークは、精度、ノイズの堅牢性、不確実性を定量化する能力において、一般的な演算子学習方法よりも一貫して優れていたことが示唆された。
関連論文リスト
- OmniFluids: Physics Pre-trained Modeling of Fluid Dynamics [25.066485418709114]
OmniFluidsは、基礎流体力学の法則を捉え、多様な下流タスクに効率的に適応する純粋物理事前学習モデルである。
本研究では,物理のみの事前学習,粗粒度演算子蒸留,小ショットファインチューニングを併用したトレーニングフレームワークを開発した。
テストによると、OmniFluidsは流れ場の予測と統計の点で最先端のAI駆動手法より優れている。
論文 参考訳(メタデータ) (2025-06-12T16:23:02Z) - DeepONet as a Multi-Operator Extrapolation Model: Distributed Pretraining with Physics-Informed Fine-Tuning [6.635683993472882]
マルチオペレータ学習を実現するためのファインチューニング手法を提案する。
本手法は,事前学習における各種演算子からのデータを分散学習と組み合わせ,物理インフォームド手法によりゼロショット微調整が可能となる。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Koopman Kernel Regression [6.116741319526748]
クープマン作用素理論は線形時間不変(LTI)ODEによる予測のキャラクタリゼーションに有効なパラダイムであることを示す。
我々は、LTI力学系への変換のみにまたがる、普遍的なクープマン不変核再生ヒルベルト空間(RKHS)を導出する。
実験では、Koopman演算子やシーケンシャルデータ予測器と比較して予測性能が優れていることを示した。
論文 参考訳(メタデータ) (2023-05-25T16:22:22Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Variational operator learning: A unified paradigm marrying training
neural operators and solving partial differential equations [9.148052787201797]
ニューラル演算子を訓練し、変分形式でPDEを解くための統一的な枠組みを提供する新しいパラダイムを提案する。
ラベルなしのトレーニングセットと5ラベルのみのシフトセットにより、VOLは、未ラベルデータの量に関して、そのテストエラーが電力法則で減少して解演算子を学習する。
論文 参考訳(メタデータ) (2023-04-09T13:20:19Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。