論文の概要: A Deep Double Ritz Method for solving Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2211.03627v1
- Date: Mon, 7 Nov 2022 15:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 19:24:34.998874
- Title: A Deep Double Ritz Method for solving Partial Differential Equations
- Title(参考訳): 偏微分方程式を解くためのディープダブルリッツ法
- Authors: Carlos Uriarte and David Pardo and Ignacio Muga and Judit
Mu\~noz-Matute
- Abstract要約: 残留最小化(Residual Minimization)は、偏微分方程式を変分形式で解くために広く用いられる手法である。
これは残差の双対ノルムを最小化し、これはいわゆる試行空間とテスト空間に対して自然にサドル点 (min-max) 問題をもたらす。
- 参考スコア(独自算出の注目度): 0.5161531917413708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Residual minimization is a widely used technique for solving Partial
Differential Equations in variational form. It minimizes the dual norm of the
residual, which naturally yields a saddle-point (min-max) problem over the
so-called trial and test spaces. Such min-max problem is highly non-linear, and
traditional methods often employ different mixed formulations to approximate
it. Alternatively, it is possible to address the above saddle-point problem by
employing Adversarial Neural Networks: one network approximates the global
trial minimum, while another network seeks the test maximizer. However, this
approach is numerically unstable due to a lack of continuity of the text
maximizers with respect to the trial functions as we approach the exact
solution. To overcome this, we reformulate the residual minimization as an
equivalent minimization of a Ritz functional fed by optimal test functions
computed from another Ritz functional minimization. The resulting Deep Double
Ritz Method combines two Neural Networks for approximating the trial and
optimal test functions. Numerical results on several 1D diffusion and
convection problems support the robustness of our method up to the
approximability and trainability capacity of the networks and the optimizer.
- Abstract(参考訳): 残留最小化は偏微分方程式を変分形式で解くために広く用いられる手法である。
これは残差の双対ノルムを最小化し、いわゆる試行空間とテスト空間に対して自然にサドル点(min-max)問題を生じる。
このような min-max 問題は非常に非線型であり、伝統的な方法はしばしばそれを近似するために異なる混合定式化を用いる。
あるいは、あるネットワークがグローバルトライアル最小値に近似し、別のネットワークがテスト最大値を求める場合、逆ニューラルネットワークを用いることで、上記のサドルポイント問題に対処することが可能である。
しかし,本手法は,厳密解に接近する試行関数に関して,テキスト最大化器の連続性が欠如しているため,数値的に不安定である。
これを解決するために、残差最小化を、他のリッツ函数最小化から計算された最適テスト関数によって与えられるリッツ函数の等価最小化として再構成する。
結果のDeep Double Ritz Methodは、2つのニューラルネットワークを組み合わせて試行錯誤と最適なテスト関数を近似する。
複数の1次元拡散対流問題の数値計算により,ネットワークとオプティマイザの近似性とトレーニング可能性まで,我々の手法の堅牢性を支持する。
関連論文リスト
- A Natural Primal-Dual Hybrid Gradient Method for Adversarial Neural Network Training on Solving Partial Differential Equations [9.588717577573684]
偏微分方程式(PDE)を解くためのスケーラブルな事前条件付き原始ハイブリッド勾配アルゴリズムを提案する。
本稿では,提案手法の性能を,一般的なディープラーニングアルゴリズムと比較する。
その結果,提案手法は効率的かつ堅牢に動作し,安定に収束することが示唆された。
論文 参考訳(メタデータ) (2024-11-09T20:39:10Z) - A neural network approach for solving the Monge-Ampère equation with transport boundary condition [0.0]
本稿では,輸送境界条件でモンジュ・アンペア方程式を解くためのニューラルネットワークに基づく新しい手法を提案する。
我々は、方程式の残差、境界条件、凸性制約を含む損失関数を最小化することにより、多層パーセプトロンネットワークを利用して近似解を学習する。
論文 参考訳(メタデータ) (2024-10-25T11:54:00Z) - Trust-Region Sequential Quadratic Programming for Stochastic Optimization with Random Models [57.52124921268249]
本稿では,1次と2次の両方の定常点を見つけるための信頼逐次準計画法を提案する。
本手法は, 1次定常点に収束するため, 対象対象の近似を最小化して定義された各イテレーションの勾配ステップを計算する。
2階定常点に収束するため,本手法は負曲率を減少するヘッセン行列を探索する固有ステップも計算する。
論文 参考訳(メタデータ) (2024-09-24T04:39:47Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Adaptive importance sampling for Deep Ritz [7.123920027048777]
偏微分方程式(PDE)の解法を目的としたディープリッツ法の適応サンプリング法を提案する。
1つのネットワークはPDEの解を近似するために使用され、もう1つはトレーニングセットを洗練させるために新しいコロケーションポイントを生成するために使用される深層生成モデルである。
従来のDeep Ritz法と比較して、特に低正規性と高次元性で特徴づけられる問題に対して、提案手法は精度を向上する。
論文 参考訳(メタデータ) (2023-10-26T06:35:08Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Adversarial Adaptive Sampling: Unify PINN and Optimal Transport for the Approximation of PDEs [2.526490864645154]
ニューラルネットワークモデルにより与えられた近似解とトレーニングセットのランダムサンプルを同時に最適化する新しいminmax式を提案する。
鍵となる考え方は、深層生成モデルを用いてトレーニングセット内のランダムサンプルを調整し、近似されたPDE解によって誘導される残差が滑らかなプロファイルを維持することである。
論文 参考訳(メタデータ) (2023-05-30T02:59:18Z) - Least-Squares ReLU Neural Network (LSNN) Method For Linear
Advection-Reaction Equation [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク法について検討する。
この方法は、ReLUニューラルネットワークの自由超平面を介して、基礎となる問題の不連続なインターフェースを自動で近似することができる。
論文 参考訳(メタデータ) (2021-05-25T03:13:15Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。