論文の概要: Two-Level Lattice Neural Network Architectures for Control of Nonlinear
Systems
- arxiv url: http://arxiv.org/abs/2004.09628v2
- Date: Fri, 18 Dec 2020 18:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:29:19.266442
- Title: Two-Level Lattice Neural Network Architectures for Control of Nonlinear
Systems
- Title(参考訳): 非線形システムの制御のための2レベル格子ニューラルネットワークアーキテクチャ
- Authors: James Ferlez and Xiaowu Sun and Yasser Shoukry
- Abstract要約: 本稿では,Rectified Linear Unit (ReLU) Neural Network (NN)アーキテクチャを自動設計する問題について考察する。
得られたNNアーキテクチャが達成可能な仕様を満たすコントローラを実装するのに十分であることを保証します。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the problem of automatically designing a Rectified
Linear Unit (ReLU) Neural Network (NN) architecture (number of layers and
number of neurons per layer) with the guarantee that it is sufficiently
parametrized to control a nonlinear system. Whereas current state-of-the-art
techniques are based on hand-picked architectures or heuristic based search to
find such NN architectures, our approach exploits the given model of the system
to design an architecture; as a result, we provide a guarantee that the
resulting NN architecture is sufficient to implement a controller that
satisfies an achievable specification. Our approach exploits two basic ideas.
First, assuming that the system can be controlled by an unknown
Lipschitz-continuous state-feedback controller with some Lipschitz constant
upper-bounded by $K_\text{cont}$, we bound the number of affine functions
needed to construct a Continuous Piecewise Affine (CPWA) function that can
approximate the unknown Lipschitz-continuous controller. Second, we utilize the
authors' recent results on a novel NN architecture named as the Two-Level
Lattice (TLL) NN architecture, which was shown to be capable of implementing
any CPWA function just from the knowledge of the number of affine functions
that compromises this CPWA function.
- Abstract(参考訳): 本稿では、非線形システムを制御するのに十分なパラメータ化が可能であることを保証し、Rectified Linear Unit (ReLU) Neural Network (NN)アーキテクチャ(レイヤ数と層毎のニューロン数)を自動設計する問題を考察する。
現在の最先端技術は手作業によるアーキテクチャやヒューリスティックな検索をベースとして構築されているが,本手法では,アーキテクチャ設計のためのシステムモデルを利用して,達成可能な仕様を満たすコントローラを実装するのに十分であることを示す。
我々のアプローチは2つの基本的な考えを利用する。
まず、あるリプシッツ定数を$K_\text{cont}$で上界とした未知のリプシッツ連続状態フィードバックコントローラで制御できると仮定すると、未知のリプシッツ連続状態フィードバックコントローラを近似できる連続ピスワイズアフィン (CPWA) 関数を構築するのに必要なアフィン関数の数を束縛する。
第2に、著者らが最近行った新しいNNアーキテクチャであるTLL(Two-Level Lattice) NNアーキテクチャの成果を利用して、このCPWA関数を侵害するアフィン関数の数から、任意のCPWA関数を実装することができることを示した。
関連論文リスト
- Lipschitz constant estimation for general neural network architectures using control tools [0.05120567378386613]
本稿では,半定値プログラミングを用いた一般ニューラルネットワークアーキテクチャのリプシッツ定数の推定について述べる。
我々はニューラルネットワークを時間変動力学系と解釈し、そこでは、$k$th層は、時間で$k$の力学に対応する。
論文 参考訳(メタデータ) (2024-05-02T09:38:16Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Demystifying the Neural Tangent Kernel from a Practical Perspective: Can
it be trusted for Neural Architecture Search without training? [37.29036906991086]
本研究では,ニューラルタンジェントカーネル(NTK)から導出できるいくつかの初期化指標を再検討する。
現代のニューラルアーキテクチャは、高い非線形特性を示しており、NTKベースのメトリクスは、ある程度のトレーニングを伴わずに、アーキテクチャのパフォーマンスを確実に見積もることができる。
これはNTKに基づく新しい計量であり、その固有な定式化により、現代のニューラルアーキテクチャに存在する多くの非線形優位性を捉えることができる。
論文 参考訳(メタデータ) (2022-03-28T08:43:04Z) - Assured Neural Network Architectures for Control and Identification of
Nonlinear Systems [1.9493449206135296]
ニューラルネットワークアーキテクチャ(層数と層ごとのニューロン数)の自動設計の問題点について考察する。
仕様は、リプシッツ定数に既知の有界なリプシッツ連続コントローラによって満たされると仮定するのみである。
我々はこのCPWAをTLL(Two-Level Lattice)NNアーキテクチャに関する著者の最近の結果を用いてNNアーキテクチャに接続する。
論文 参考訳(メタデータ) (2021-09-21T16:19:59Z) - Recurrent neural network-based Internal Model Control of unknown
nonlinear stable systems [0.30458514384586394]
Gated Recurrent Neural Networks (RNN)は、動的システムを学ぶための人気のあるツールとなっている。
本稿では、内部モデル制御(IMC)アーキテクチャの合成にこれらのネットワークをどのように適用できるかについて議論する。
論文 参考訳(メタデータ) (2021-08-10T11:02:25Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。