論文の概要: RAMS: Residual-based adversarial-gradient moving sample method for scientific machine learning in solving partial differential equations
- arxiv url: http://arxiv.org/abs/2509.01234v1
- Date: Mon, 01 Sep 2025 08:22:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.594264
- Title: RAMS: Residual-based adversarial-gradient moving sample method for scientific machine learning in solving partial differential equations
- Title(参考訳): RAMS:偏微分方程式の解法における科学的機械学習のための残差対数次移動サンプル法
- Authors: Weihang Ouyang, Min Zhu, Wei Xiong, Si-Wei Liu, Lu Lu,
- Abstract要約: RAMSは、演算子学習のための最初の効率的な適応サンプリング手法であり、SciML分野における重要な進歩を示している。
本稿では, 逆勾配方向に応じて試料を移動させるRAMS法を提案する。
- 参考スコア(独自算出の注目度): 8.366327158252533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) and neural operators, two leading scientific machine learning (SciML) paradigms, have emerged as powerful tools for solving partial differential equations (PDEs). Although increasing the training sample size generally enhances network performance, it also increases computational costs for physics-informed or data-driven training. To address this trade-off, different sampling strategies have been developed to sample more points in regions with high PDE residuals. However, existing sampling methods are computationally demanding for high-dimensional problems, such as high-dimensional PDEs or operator learning tasks. Here, we propose a residual-based adversarial-gradient moving sample (RAMS) method, which moves samples according to the adversarial gradient direction to maximize the PDE residual via gradient-based optimization. RAMS can be easily integrated into existing sampling methods. Extensive experiments, ranging from PINN applied to high-dimensional PDEs to physics-informed and data-driven operator learning problems, have been conducted to demonstrate the effectiveness of RAMS. Notably, RAMS represents the first efficient adaptive sampling approach for operator learning, marking a significant advancement in the SciML field.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)と2つの主要な科学機械学習(SciML)パラダイムであるニューラルオペレータは、偏微分方程式(PDE)を解く強力なツールとして登場した。
トレーニングサンプルのサイズが大きくなるとネットワーク性能が向上するが、物理インフォームドトレーニングやデータ駆動トレーニングの計算コストも向上する。
このトレードオフに対処するため、高PDE残基を持つ領域でより多くの点をサンプリングするための異なるサンプリング戦略が開発されている。
しかし,既存のサンプリング手法は高次元PDEや演算子学習タスクなどの高次元問題に対して計算的に要求されている。
本稿では, 逆勾配方向に従って試料を移動させて, 勾配に基づく最適化によりPDE残差を最大化する, 残留型逆勾配移動試料 (RAMS) 法を提案する。
RAMSは既存のサンプリング手法に簡単に統合できる。
高次元PDEに適用されたPINNから、物理インフォームドおよびデータ駆動型演算子学習問題まで、広範囲にわたる実験を行い、RAMSの有効性を実証した。
特に、RAMSは演算子学習における最初の効率的な適応サンプリング手法であり、SciML分野における重要な進歩を示している。
関連論文リスト
- Data-Augmented Few-Shot Neural Stencil Emulation for System Identification of Computer Models [13.794891110913776]
部分方程式(PDE)は多くの自然および工学的なシステムのモデリングの基盤となる。
ニューラルネットワーク表現でPDEの支配方程式の一部または全部を置き換えることで、ニューラルPDEのようなモデルを表現するのが便利である。
本稿では,コンピュータモデルからニューラルPDEトレーニングデータを生成するための,より効率的なデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2025-08-26T21:22:11Z) - Dynamical Measure Transport and Neural PDE Solvers for Sampling [77.38204731939273]
本研究では, 対象物へのトラクタブル密度関数の移動として, 確率密度からサンプリングする作業に取り組む。
物理インフォームドニューラルネットワーク(PINN)を用いて各偏微分方程式(PDE)の解を近似する。
PINNはシミュレーションと離散化のない最適化を可能にし、非常に効率的に訓練することができる。
論文 参考訳(メタデータ) (2024-07-10T17:39:50Z) - Data-Efficient Operator Learning via Unsupervised Pretraining and In-Context Learning [45.78096783448304]
本研究では,PDE演算子学習のための教師なし事前学習を設計する。
シミュレーションソリューションを使わずにラベルなしのPDEデータをマイニングし、物理に着想を得た再構成ベースのプロキシタスクでニューラルネットワークを事前訓練する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations [9.823102211212582]
本稿では,多タスク学習手法,不確実性強調損失,勾配手術を学習pdeソリューションの文脈で活用する新しいアプローチを提案する。
実験では,提案手法が有効であることが判明し,従来手法と比較して未発見のデータポイントの誤差を低減できた。
論文 参考訳(メタデータ) (2021-04-29T13:17:46Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。