論文の概要: Neural Operators for Predictor Feedback Control of Nonlinear Delay Systems
- arxiv url: http://arxiv.org/abs/2411.18964v1
- Date: Thu, 28 Nov 2024 07:30:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:18:15.079530
- Title: Neural Operators for Predictor Feedback Control of Nonlinear Delay Systems
- Title(参考訳): 非線形遅延系の予測器フィードバック制御のためのニューラル演算子
- Authors: Luke Bhan, Peijia Qin, Miroslav Krstic, Yuanyuan Shi,
- Abstract要約: 本稿では,予測器の定式化を演算子学習問題として再キャストすることで,予測器設計の新しい視点を導入する。
我々は、予測演算子の任意の精度のニューラル演算子近似の存在を証明した。
近似予測器の下では閉ループ非線形系の半言語的実用安定性を実現する。
- 参考スコア(独自算出の注目度): 3.0248879829045388
- License:
- Abstract: Predictor feedback designs are critical for delay-compensating controllers in nonlinear systems. However, these designs are limited in practical applications as predictors cannot be directly implemented, but require numerical approximation schemes. These numerical schemes, typically combining finite difference and successive approximations, become computationally prohibitive when the dynamics of the system are expensive to compute. To alleviate this issue, we propose approximating the predictor mapping via a neural operator. In particular, we introduce a new perspective on predictor designs by recasting the predictor formulation as an operator learning problem. We then prove the existence of an arbitrarily accurate neural operator approximation of the predictor operator. Under the approximated-predictor, we achieve semiglobal practical stability of the closed-loop nonlinear system. The estimate is semiglobal in a unique sense - namely, one can increase the set of initial states as large as desired but this will naturally increase the difficulty of training a neural operator approximation which appears practically in the stability estimate. Furthermore, we emphasize that our result holds not just for neural operators, but any black-box predictor satisfying a universal approximation error bound. From a computational perspective, the advantage of the neural operator approach is clear as it requires training once, offline and then is deployed with very little computational cost in the feedback controller. We conduct experiments controlling a 5-link robotic manipulator with different state-of-the-art neural operator architectures demonstrating speedups on the magnitude of $10^2$ compared to traditional predictor approximation schemes.
- Abstract(参考訳): 予測器のフィードバック設計は非線形システムの遅延補償コントローラにとって重要である。
しかしながら、これらの設計は、予測器を直接実装できないため、実用的な応用に限られるが、数値近似スキームを必要とする。
これらの数値スキームは、一般に有限差分と逐次近似を組み合わせたもので、システムの力学が計算に費用がかかると計算が禁じられる。
この問題を軽減するために,ニューラル演算子による予測器マッピングの近似を提案する。
特に,予測器の定式化を演算子学習問題として再キャストすることで,予測器設計の新しい視点を導入する。
次に、予測演算子の任意の精度のニューラル演算子近似の存在を証明した。
近似予測器の下では閉ループ非線形系の半言語的実用安定性を実現する。
この推定は半球的であり、すなわち、初期状態のセットを望んだだけ大きくすることができるが、これは安定性の見積に実質的に現れる神経オペレータ近似の訓練の難しさを自然に増大させる。
さらに、この結果は、ニューラルネットワークだけでなく、普遍近似誤差を満足するブラックボックス予測器にも当てはまると強調する。
計算の観点からは、ニューラルネットワークアプローチの利点は、トレーニングを一度、オフラインで行い、フィードバックコントローラに非常に少ない計算コストでデプロイする必要があるため明らかである。
我々は,従来の予測器近似法と比較して,10^2$のスピードアップを示す,最先端のニューラルオペレーターアーキテクチャの異なる5リンクロボットマニピュレータの制御実験を行った。
関連論文リスト
- Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
我々は、訓練されたニューラル演算子におけるベイズの不確実性定量化を近似するための新しいフレームワークLUNOを紹介する。
我々の手法はモデル線形化を利用して(ガウス的)重み空間の不確実性をニューラル作用素の予測に推し進める。
これは関数型プログラミングのカリー化の概念の確率的バージョンとして解釈でき、関数値(ガウス的)ランダムプロセスの信念を導出することを示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Residual-Based Error Corrector Operator to Enhance Accuracy and
Reliability of Neural Operator Surrogates of Nonlinear Variational
Boundary-Value Problems [0.0]
この研究は、ニューラル作用素を介してパラメトリック偏微分方程式のクラスの解作用素を近似する手法の開発に焦点をあてる。
ニューラルネットワークの精度の予測不可能さは、推論、最適化、制御の下流問題における彼らの応用に影響を与える。
論文 参考訳(メタデータ) (2023-06-21T06:30:56Z) - Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs [34.179984253109346]
ニューラル作用素の'hallow'(線形)バージョンを数学的に詳細に定式化する。
次に、ベイズ深層学習の近似手法を用いて、この解析処理を一般のディープニューラル演算子に拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
論文 参考訳(メタデータ) (2022-08-02T16:10:27Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Relaxing the Constraints on Predictive Coding Models [62.997667081978825]
予測符号化(英: Predictive coding)は、脳が行う主計算が予測誤差の最小化であるとする皮質機能の影響力のある理論である。
アルゴリズムの標準的な実装は、同じ前方と後方の重み、後方の非線形微分、1-1エラーユニット接続といった、潜在的に神経的に予測できない特徴を含んでいる。
本稿では,これらの特徴はアルゴリズムに不可欠なものではなく,Hebbianの更新ルールを用いてパラメータセットを直接あるいは学習することで,学習性能に悪影響を及ぼすことなく除去可能であることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:21:37Z) - Bayesian Perceptron: Towards fully Bayesian Neural Networks [5.5510642465908715]
パーセプトロンのトレーニングと予測は、閉形式のベイズ推論フレームワーク内で実行される。
パーセプトロンの重みと予測はガウス確率変数と見なされる。
このアプローチは計算に高価な勾配計算を必要とせず、さらにシーケンシャルな学習を可能にする。
論文 参考訳(メタデータ) (2020-09-03T15:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。