論文の概要: A Deep Double Ritz Method for solving Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2211.03627v1
- Date: Mon, 7 Nov 2022 15:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 19:24:34.998874
- Title: A Deep Double Ritz Method for solving Partial Differential Equations
- Title(参考訳): 偏微分方程式を解くためのディープダブルリッツ法
- Authors: Carlos Uriarte and David Pardo and Ignacio Muga and Judit
Mu\~noz-Matute
- Abstract要約: 残留最小化(Residual Minimization)は、偏微分方程式を変分形式で解くために広く用いられる手法である。
これは残差の双対ノルムを最小化し、これはいわゆる試行空間とテスト空間に対して自然にサドル点 (min-max) 問題をもたらす。
- 参考スコア(独自算出の注目度): 0.5161531917413708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Residual minimization is a widely used technique for solving Partial
Differential Equations in variational form. It minimizes the dual norm of the
residual, which naturally yields a saddle-point (min-max) problem over the
so-called trial and test spaces. Such min-max problem is highly non-linear, and
traditional methods often employ different mixed formulations to approximate
it. Alternatively, it is possible to address the above saddle-point problem by
employing Adversarial Neural Networks: one network approximates the global
trial minimum, while another network seeks the test maximizer. However, this
approach is numerically unstable due to a lack of continuity of the text
maximizers with respect to the trial functions as we approach the exact
solution. To overcome this, we reformulate the residual minimization as an
equivalent minimization of a Ritz functional fed by optimal test functions
computed from another Ritz functional minimization. The resulting Deep Double
Ritz Method combines two Neural Networks for approximating the trial and
optimal test functions. Numerical results on several 1D diffusion and
convection problems support the robustness of our method up to the
approximability and trainability capacity of the networks and the optimizer.
- Abstract(参考訳): 残留最小化は偏微分方程式を変分形式で解くために広く用いられる手法である。
これは残差の双対ノルムを最小化し、いわゆる試行空間とテスト空間に対して自然にサドル点(min-max)問題を生じる。
このような min-max 問題は非常に非線型であり、伝統的な方法はしばしばそれを近似するために異なる混合定式化を用いる。
あるいは、あるネットワークがグローバルトライアル最小値に近似し、別のネットワークがテスト最大値を求める場合、逆ニューラルネットワークを用いることで、上記のサドルポイント問題に対処することが可能である。
しかし,本手法は,厳密解に接近する試行関数に関して,テキスト最大化器の連続性が欠如しているため,数値的に不安定である。
これを解決するために、残差最小化を、他のリッツ函数最小化から計算された最適テスト関数によって与えられるリッツ函数の等価最小化として再構成する。
結果のDeep Double Ritz Methodは、2つのニューラルネットワークを組み合わせて試行錯誤と最適なテスト関数を近似する。
複数の1次元拡散対流問題の数値計算により,ネットワークとオプティマイザの近似性とトレーニング可能性まで,我々の手法の堅牢性を支持する。
関連論文リスト
- Deep Backward and Galerkin Methods for the Finite State Master Equation [12.570464662548787]
本稿では,有限状態平均場ゲームにおけるマスター方程式の解法として,2つのニューラルネットワーク手法を提案し,解析する。
アルゴリズムの損失関数を任意に小さくし、逆に損失が小さい場合、ニューラルネットワークはマスター方程式の解をよく近似する。
論文 参考訳(メタデータ) (2024-03-08T01:12:11Z) - Adaptive importance sampling for Deep Ritz [7.123920027048777]
偏微分方程式(PDE)の解法を目的としたディープリッツ法の適応サンプリング法を提案する。
1つのネットワークはPDEの解を近似するために使用され、もう1つはトレーニングセットを洗練させるために新しいコロケーションポイントを生成するために使用される深層生成モデルである。
従来のDeep Ritz法と比較して、特に低正規性と高次元性で特徴づけられる問題に対して、提案手法は精度を向上する。
論文 参考訳(メタデータ) (2023-10-26T06:35:08Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Adversarial Adaptive Sampling: Unify PINN and Optimal Transport for the
Approximation of PDEs [2.87750467643675]
ニューラルネットワークモデルにより与えられた近似解とトレーニングセットのランダムサンプルを同時に最適化する新しいminmax式を提案する。
鍵となる考え方は、深層生成モデルを用いてトレーニングセット内のランダムサンプルを調整し、近似されたPDE解によって誘導される残差が滑らかなプロファイルを維持することである。
論文 参考訳(メタデータ) (2023-05-30T02:59:18Z) - Convergence Rates of Two-Time-Scale Gradient Descent-Ascent Dynamics for
Solving Nonconvex Min-Max Problems [2.0305676256390934]
連立勾配降下指数アルゴリズムの連続時間変動の有限時間特性を特徴付ける。
連続時間アルゴリズムの挙動に関する結果は、離散時間アルゴリズムの収束特性を高めるために用いられる。
論文 参考訳(メタデータ) (2021-12-17T15:51:04Z) - Least-Squares ReLU Neural Network (LSNN) Method For Linear
Advection-Reaction Equation [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク法について検討する。
この方法は、ReLUニューラルネットワークの自由超平面を介して、基礎となる問題の不連続なインターフェースを自動で近似することができる。
論文 参考訳(メタデータ) (2021-05-25T03:13:15Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。