論文の概要: Neural Operators of Backstepping Controller and Observer Gain Functions
for Reaction-Diffusion PDEs
- arxiv url: http://arxiv.org/abs/2303.10506v1
- Date: Sat, 18 Mar 2023 21:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 19:00:09.831568
- Title: Neural Operators of Backstepping Controller and Observer Gain Functions
for Reaction-Diffusion PDEs
- Title(参考訳): 反応拡散PDEのためのバックステッピング制御器とオブザーバゲイン関数のニューラル演算子
- Authors: Miroslav Krstic, Luke Bhan, Yuanyuan Shi
- Abstract要約: 我々は一階双曲型PDEのためのPDEバックステッピング設計のためのニューラル演算子を開発した。
ここでは、このフレームワークをより複雑な放物的PDEのクラスに拡張する。
ニューラル演算子による利得の下での閉ループの安定性を実証する。
- 参考スコア(独自算出の注目度): 2.094821665776961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unlike ODEs, whose models involve system matrices and whose controllers
involve vector or matrix gains, PDE models involve functions in those roles
functional coefficients, dependent on the spatial variables, and gain functions
dependent on space as well. The designs of gains for controllers and observers
for PDEs, such as PDE backstepping, are mappings of system model functions into
gain functions. These infinite dimensional nonlinear operators are given in an
implicit form through PDEs, in spatial variables, which need to be solved to
determine the gain function for each new functional coefficient of the PDE. The
need for solving such PDEs can be eliminated by learning and approximating the
said design mapping in the form of a neural operator. Learning the neural
operator requires a sufficient number of prior solutions for the design PDEs,
offline, as well as the training of the operator. In recent work, we developed
the neural operators for PDE backstepping designs for first order hyperbolic
PDEs. Here we extend this framework to the more complex class of parabolic
PDEs. The key theoretical question is whether the controllers are still
stabilizing, and whether the observers are still convergent, if they employ the
approximate functional gains generated by the neural operator. We provide
affirmative answers to these questions, namely, we prove stability in closed
loop under gains produced by neural operators. We illustrate the theoretical
results with numerical tests and publish our code on github. The neural
operators are three orders of magnitude faster in generating gain functions
than PDE solvers for such gain functions. This opens up the opportunity for the
use of this neural operator methodology in adaptive control and in gain
scheduling control for nonlinear PDEs.
- Abstract(参考訳): システム行列を含むODEや、ベクトルや行列ゲインを含むコントローラとは異なり、PDEモデルはそれらの機能係数の関数を含み、空間変数に依存し、空間に依存する関数も得る。
PDEバックステッピングのようなPDEのためのコントローラとオブザーバのためのゲインの設計は、システムモデル関数をゲイン関数にマッピングしたものである。
これらの無限次元非線形作用素は、空間変数の PDE を通じて暗黙的な形で与えられるが、これは PDE の新しい関数係数ごとに利得関数を決定するために解決する必要がある。
このような pdes の解法の必要性は、その設計マッピングをニューラルネットワークの形で学習し近似することで解消することができる。
ニューラル演算子の学習には、設計 pdes、オフライン、およびオペレータのトレーニングに十分な数の事前ソリューションが必要である。
近年,一階双曲型PDEのためのPDEバックステッピング設計のためのニューラル演算子を開発した。
ここでは、このフレームワークをより複雑な放物的PDEのクラスに拡張する。
重要な理論上の疑問は、制御器がまだ安定しているか、そして観測器がまだ収束しているか、ニューラル作用素によって生成される近似関数ゲインを用いるかである。
我々はこれらの疑問に対する肯定的な答え、すなわち、ニューラル演算子が生成するゲインの下での閉ループの安定性を証明する。
理論的結果を数値実験で説明し,そのコードをgithubに公開する。
ニューラル作用素は、そのような利得関数に対するPDEソルバよりも利得関数を生成するのが3桁高速である。
これにより、適応制御と非線形PDEのゲインスケジューリング制御にこのニューラル演算子手法を使用する機会が開ける。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Adaptive Neural-Operator Backstepping Control of a Benchmark Hyperbolic
PDE [3.3044728148521623]
適応型PDE制御におけるNOsの適用に関する最初の結果を示し, 再循環を伴うベンチマーク1次元双曲型PDEを提案する。
また,安定性を示す数値シミュレーションを行い,最大3桁のスピードアップを観測する。
論文 参考訳(メタデータ) (2024-01-15T17:52:15Z) - Gain Scheduling with a Neural Operator for a Transport PDE with
Nonlinear Recirculation [1.124958340749622]
ゲインスケジューリング(GS)非線形設計は、非線形フィードバックの設計において最も単純なアプローチである。
近年導入されたニューラル演算子(NO)は、各状態値に対して高速に利得関数を生成するように訓練することができる。
非線形再循環を伴う双曲型PDEの局所安定化を確立する。
論文 参考訳(メタデータ) (2024-01-04T19:45:27Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Deep Learning of Delay-Compensated Backstepping for Reaction-Diffusion
PDEs [2.2869182375774613]
複数の演算子は異なるPDEクラスからPDEシステムの制御に現れる。
DeepONet近似非線形作用素(DeepONet-approximated linear operator)は、グールサット形式の1つの双曲的PDEと長方形上の1つの放物的PDEによって定義される作用素のカスケード/合成である。
遅延補償型PDEバックステッピングコントローラでは、プラント状態の$L2$ノルムと入力遅延状態の$H1$ノルムの指数的安定性が保証される。
論文 参考訳(メタデータ) (2023-08-21T06:42:33Z) - Neural Operators for PDE Backstepping Control of First-Order Hyperbolic PIDE with Recycle and Delay [9.155455179145473]
我々は最近導入されたPDE制御のためのDeepONet演算子学習フレームワークを高度な双曲型クラスに拡張する。
PDEバックステッピング設計は非線形作用素の出力であるゲイン関数を生成する。
この演算子は、DeepONetニューラルネットワークと近似して、任意にきつい精度の程度に近似する。
論文 参考訳(メタデータ) (2023-07-21T08:57:16Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - PDE-constrained Models with Neural Network Terms: Optimization and
Global Convergence [0.0]
近年の研究では、ディープラーニングを用いて、科学と工学における偏微分方程式(PDE)モデルを開発した。
ニューラルネットワークを用いた線形楕円型PDEの最適化について厳密に研究する。
ニューラルネットワークは,レイノルズ平均ナヴィエ・ストークス方程式の閉包モデルとして機能する流体力学への応用のために,ニューラルネットワークモデルを訓練する。
論文 参考訳(メタデータ) (2021-05-18T16:04:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。