論文の概要: StablePDENet: Enhancing Stability of Operator Learning for Solving Differential Equations
- arxiv url: http://arxiv.org/abs/2601.06472v1
- Date: Sat, 10 Jan 2026 07:38:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.834087
- Title: StablePDENet: Enhancing Stability of Operator Learning for Solving Differential Equations
- Title(参考訳): StablePDENet:微分方程式の解法における演算子学習の安定性向上
- Authors: Chutian Huang, Chang Ma, Kaibo Wang, Yang Xiang,
- Abstract要約: 演算子学習をmin-max最適化問題として定式化し、モデルが最悪の入力摂動に対してトレーニングされ、正規条件と逆条件の両方で一貫した性能を達成する。
その結果、オペレータ学習における安定性を考慮したトレーニングの重要性を強調し、現実のアプリケーションで信頼性の高いニューラルネットワークPDEソルバを開発するための基盤を提供する。
- 参考スコア(独自算出の注目度): 15.953048749834716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning solution operators for differential equations with neural networks has shown great potential in scientific computing, but ensuring their stability under input perturbations remains a critical challenge. This paper presents a robust self-supervised neural operator framework that enhances stability through adversarial training while preserving accuracy. We formulate operator learning as a min-max optimization problem, where the model is trained against worst-case input perturbations to achieve consistent performance under both normal and adversarial conditions. We demonstrate that our method not only achieves good performance on standard inputs, but also maintains high fidelity under adversarial perturbed inputs. The results highlight the importance of stability-aware training in operator learning and provide a foundation for developing reliable neural PDE solvers in real-world applications, where input noise and uncertainties are inevitable.
- Abstract(参考訳): ニューラルネットワークを用いた微分方程式の学習解演算子は、科学計算において大きな可能性を示しているが、入力摂動下での安定性を保証することは、依然として重要な課題である。
本稿では, 正当性を維持しつつ, 対人訓練による安定度を高める頑健な自己教師型ニューラルオペレーター・フレームワークを提案する。
演算子学習をmin-max最適化問題として定式化し、モデルが最悪の入力摂動に対してトレーニングされ、正規条件と逆条件の両方で一貫した性能を達成する。
提案手法は, 標準入力の性能向上だけでなく, 対向的摂動入力下での高忠実性も維持できることを示す。
その結果、オペレーター学習における安定性を考慮したトレーニングの重要性を強調し、入力ノイズや不確実性が避けられない現実世界のアプリケーションにおいて、信頼性の高いニューラルネットワークPDEソルバを開発するための基盤を提供する。
関連論文リスト
- Towards Universal Solvers: Using PGD Attack in Active Learning to Increase Generalizability of Neural Operators as Knowledge Distillation from Numerical PDE Solvers [3.780792537808271]
PDEソルバは細かな時空間離散化と局所線形化を必要とするため、メモリコストが高く、実行時間が遅い。
本稿では, 微分可能な数値解法がコンパクトなニューラル演算子を監督する対向型教師学生蒸留フレームワークを提案する。
Burgers と Navier-Stokes のシステム実験により、対向蒸留は低パラメータコストと高速なニューラル演算子の推論を保ちながらOODを大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-10-21T18:13:05Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Addressing Mistake Severity in Neural Networks with Semantic Knowledge [0.0]
ほとんどの堅牢なトレーニング技術は、摂動入力のモデル精度を改善することを目的としている。
強靭性の代替形態として、ニューラルネットワークが挑戦的な状況で犯した誤りの深刻度を低減することを目的としている。
我々は、現在の対人訓練手法を活用して、トレーニングプロセス中に標的の対人攻撃を発生させる。
その結果,本手法は,標準モデルや逆トレーニングモデルと比較して,誤り重大性に対して優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-21T22:01:36Z) - Probabilistically Robust Learning: Balancing Average- and Worst-case
Performance [105.87195436925722]
我々は、正確で不安定な平均ケースと頑健で保守的な最悪のケースのギャップを埋める、堅牢性確率というフレームワークを提案する。
理論的には、このフレームワークはパフォーマンスと最悪のケースと平均ケース学習のサンプル複雑さの間のトレードオフを克服する。
論文 参考訳(メタデータ) (2022-02-02T17:01:38Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Accurate and Reliable Forecasting using Stochastic Differential
Equations [48.21369419647511]
ディープラーニングモデルにとって、現実世界の環境に浸透する不確実性を適切に特徴付けることは、非常に困難である。
本論文では,HNNの予測平均と分散の相互作用を特徴づけるSDE-HNNを開発した。
本手法は,予測性能と不確実性定量化の両方の観点から,最先端のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-03-28T04:18:11Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Stability for the Training of Deep Neural Networks and Other Classifiers [0.9558392439655015]
我々は安定性の概念を定式化し、不安定性の例を示す。
トレーニングで損失が減少する限り、トレーニングに使用されるアルゴリズムには依存しない。
論文 参考訳(メタデータ) (2020-02-10T22:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。