論文の概要: Accelerated primal-dual methods with enlarged step sizes and operator
learning for nonsmooth optimal control problems
- arxiv url: http://arxiv.org/abs/2307.00296v2
- Date: Tue, 25 Jul 2023 17:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 20:34:15.405268
- Title: Accelerated primal-dual methods with enlarged step sizes and operator
learning for nonsmooth optimal control problems
- Title(参考訳): 非スムース最適制御問題に対する拡大ステップサイズと演算子学習を用いた高速化原始双対法
- Authors: Yongcun Song, Xiaoming Yuan, Hangrui Yue
- Abstract要約: 本稿では,異なる種類の変数を個別に扱える原始双対法の適用に焦点をあてる。
ステップサイズが大きい高速化された原始双対法では、元の原始双対法を数値的に高速化しながら、その収束を厳密に証明することができる。
演算子学習アクセラレーションのために、関連するPDEのためのディープニューラルネットワークサロゲートモデルを構築する。
- 参考スコア(独自算出の注目度): 3.1006429989273063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider a general class of nonsmooth optimal control problems with
partial differential equation (PDE) constraints, which are very challenging due
to its nonsmooth objective functionals and the resulting high-dimensional and
ill-conditioned systems after discretization. We focus on the application of a
primal-dual method, with which different types of variables can be treated
individually and thus its main computation at each iteration only requires
solving two PDEs. Our target is to accelerate the primal-dual method with
either larger step sizes or operator learning techniques. For the accelerated
primal-dual method with larger step sizes, its convergence can be still proved
rigorously while it numerically accelerates the original primal-dual method in
a simple and universal way. For the operator learning acceleration, we
construct deep neural network surrogate models for the involved PDEs. Once a
neural operator is learned, solving a PDE requires only a forward pass of the
neural network, and the computational cost is thus substantially reduced. The
accelerated primal-dual method with operator learning is mesh-free, numerically
efficient, and scalable to different types of PDEs. The acceleration
effectiveness of these two techniques is promisingly validated by some
preliminary numerical results.
- Abstract(参考訳): 偏微分方程式(PDE)制約を伴う非滑らかな最適制御問題の一般的なクラスを考える。
そこで本研究では,異なる種類の変数を個別に扱うことができ,各イテレーションにおける主計算は2つのPDEを解くことしか必要としない。
我々の目標は、より大きなステップサイズまたは演算子学習技術で原始双対法を加速することである。
ステップサイズが大きい加速原始双対法では、その収束性は単純で普遍的な方法で元の原始双対法を数値的に加速しながら厳密に証明することができる。
オペレータ・ラーニング・アクセラレーションのために,深層ニューラルネットワークによるpdesモデルを構築した。
ニューラルネットワークが学習されると、PDEの解法はニューラルネットワークの前方通過のみを必要とし、計算コストは大幅に削減される。
オペレーター学習による高速化プライマル・デュアル法はメッシュフリーで数値効率が良く,異なるタイプのpdesにスケーラブルである。
これらの2つの手法の加速効果は、いくつかの予備的な数値結果によって有望に検証される。
関連論文リスト
- A Natural Primal-Dual Hybrid Gradient Method for Adversarial Neural Network Training on Solving Partial Differential Equations [9.588717577573684]
偏微分方程式(PDE)を解くためのスケーラブルな事前条件付き原始ハイブリッド勾配アルゴリズムを提案する。
本稿では,提案手法の性能を,一般的なディープラーニングアルゴリズムと比較する。
その結果,提案手法は効率的かつ堅牢に動作し,安定に収束することが示唆された。
論文 参考訳(メタデータ) (2024-11-09T20:39:10Z) - DOF: Accelerating High-order Differential Operators with Forward
Propagation [40.71528485918067]
一般の2階微分演算子を精度を損なわずに計算するための効率的なフレームワークである差分演算子(DOF)を提案する。
我々は、効率が2倍改善され、どんなアーキテクチャでもメモリ消費が削減されたことを実証する。
実験結果から,本手法は従来の自動微分法(AutoDiff)よりも優れ,構造が2倍,空間が20倍近く向上していることがわかった。
論文 参考訳(メタデータ) (2024-02-15T05:59:21Z) - Multi-Grade Deep Learning for Partial Differential Equations with
Applications to the Burgers Equation [3.5994228506864405]
本稿では,非線形偏微分方程式(PDE)を解くための多段階深層学習法を開発する。
ディープニューラルネットワーク(DNN)は、PDEを解く上で非常にパフォーマンスが高い。
本稿では, 1次元, 2次元, 3次元バーガース方程式にのみ焦点をあてる。
論文 参考訳(メタデータ) (2023-09-14T03:09:58Z) - An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - iPINNs: Incremental learning for Physics-informed neural networks [66.4795381419701]
物理インフォームドニューラルネットワーク(PINN)は、最近偏微分方程式(PDE)を解く強力なツールとなっている。
本稿では,新しいタスクのパラメータを追加せずに連続的に複数のタスクを学習できるインクリメンタルPINNを提案する。
提案手法は,PDEごとに個別のサブネットワークを作成し,従来のサブネットワークと重なり合うようにすることで,最も単純なPDEから複数のPDEを学習する。
論文 参考訳(メタデータ) (2023-04-10T20:19:20Z) - Entropic Neural Optimal Transport via Diffusion Processes [105.34822201378763]
本稿では,連続確率分布間のエントロピー最適輸送(EOT)計画を計算するための新しいアルゴリズムを提案する。
提案アルゴリズムは,シュリンガーブリッジ問題(Schr"odinger Bridge problem)として知られるEOTの動的バージョンのサドル点再構成に基づく。
大規模EOTの従来の手法とは対照的に,我々のアルゴリズムはエンドツーエンドであり,単一の学習ステップで構成されている。
論文 参考訳(メタデータ) (2022-11-02T14:35:13Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。