論文の概要: BiLO: Bilevel Local Operator Learning for PDE inverse problems
- arxiv url: http://arxiv.org/abs/2404.17789v3
- Date: Fri, 16 Aug 2024 02:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 20:12:39.280042
- Title: BiLO: Bilevel Local Operator Learning for PDE inverse problems
- Title(参考訳): BiLO: PDE逆問題に対するバイレベルローカル演算子学習
- Authors: Ray Zirui Zhang, Xiaohui Xie, John S. Lowengrub,
- Abstract要約: 偏微分方程式(PDE)の逆問題に対する新しいニューラルネットワークに基づく解法を提案する。
上層部ではPDEパラメータに関してデータ損失を最小限に抑える。
低レベルでは、ニューラルネットワークをトレーニングし、与えられたPDEパラメータの集合の近傍でPDEソリューション演算子を局所的に近似する。
- 参考スコア(独自算出の注目度): 10.082649871368409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new neural network based method for solving inverse problems for partial differential equations (PDEs) by formulating the PDE inverse problem as a bilevel optimization problem. At the upper level, we minimize the data loss with respect to the PDE parameters. At the lower level, we train a neural network to locally approximate the PDE solution operator in the neighborhood of a given set of PDE parameters, which enables an accurate approximation of the descent direction for the upper level optimization problem. The lower level loss function includes the L2 norms of both the residual and its derivative with respect to the PDE parameters. We apply gradient descent simultaneously on both the upper and lower level optimization problems, leading to an effective and fast algorithm. The method, which we refer to as BiLO (Bilevel Local Operator learning), is also able to efficiently infer unknown functions in the PDEs through the introduction of an auxiliary variable. Through extensive experiments over multiple PDE systems, we demonstrate that our method enforces strong PDE constraints, is robust to sparse and noisy data, and eliminates the need to balance the residual and the data loss, which is inherent to the soft PDE constraints in many existing methods.
- Abstract(参考訳): 本稿では、PDE逆問題を二段階最適化問題として定式化することにより、偏微分方程式(PDE)の逆問題の解法を提案する。
上層部ではPDEパラメータに関してデータ損失を最小限に抑える。
下層部では、与えられたPDEパラメータの近傍でPDE解演算子を局所的に近似するようにニューラルネットワークを訓練し、上層部最適化問題に対する降下方向の正確な近似を可能にする。
下位レベル損失関数は、PDEパラメータに対する残差と微分の両方のL2ノルムを含む。
上層と下層の両方の最適化問題に勾配勾配を同時に適用し,有効かつ高速なアルゴリズムを実現する。
この手法はBiLO(Bilevel Local Operator Learning)と呼ばれ、補助変数の導入によってPDE内の未知の関数を効率的に推論することができる。
複数のPDEシステムに対する広範な実験により,本手法は強いPDE制約を強制し,スパースかつノイズの多いデータに対して堅牢であり,既存手法のソフトPDE制約に固有の残差とデータ損失のバランスを取る必要がなくなることを示した。
関連論文リスト
- Learning a Neural Solver for Parametric PDE to Enhance Physics-Informed Methods [14.791541465418263]
データに基づいて訓練された物理インフォームド反復アルゴリズムを用いて偏微分方程式(PDE)の解法を学習することを提案する。
本手法は,各PDEインスタンスに自動的に適応する勾配降下アルゴリズムの条件付けを学習する。
複数のデータセットに対する経験的実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-09T12:28:32Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - Data-Driven Discovery of PDEs via the Adjoint Method [4.014524824655106]
本稿では、与えられたデータに基づいて、基礎となる支配的偏微分方程式(PDE)を発見する方法を提案する。
PDEの形式を同定する上で,提案手法の有効性を示す。
また,その性能をPDE-FIND(PDE-FIND)として有名なPDE関数同定法と比較した。
論文 参考訳(メタデータ) (2024-01-30T17:10:42Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Weak-PDE-LEARN: A Weak Form Based Approach to Discovering PDEs From
Noisy, Limited Data [0.0]
Weak-PDE-LEARNは,非線形PDEを雑音から同定し,その解を限定的に測定する探索アルゴリズムである。
いくつかのベンチマークPDEを学習し,Weak-PDE-LEARNの有効性を示す。
論文 参考訳(メタデータ) (2023-09-09T06:45:15Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Neural Control of Parametric Solutions for High-dimensional Evolution
PDEs [6.649496716171139]
我々は進化偏微分方程式(PDE)の解演算子を近似する新しい計算フレームワークを開発する。
パラメータ空間における制御ベクトル場を学習することにより,PDEの解演算子を近似する。
これにより計算コストを大幅に削減し、任意の初期条件で進化PDEを解くことができる。
論文 参考訳(メタデータ) (2023-01-31T19:26:25Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Two-Layer Neural Networks for Partial Differential Equations:
Optimization and Generalization Theory [4.243322291023028]
勾配降下法は二階線形PDEを解くための最小二乗最適化の大域最小化器を同定できることを示す。
また,2階線形PDEと2層ニューラルネットワークの最小二乗最適化の一般化誤差を解析した。
論文 参考訳(メタデータ) (2020-06-28T22:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。