論文の概要: Rational Neural Network Controllers
- arxiv url: http://arxiv.org/abs/2307.06287v1
- Date: Wed, 12 Jul 2023 16:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 12:22:00.240525
- Title: Rational Neural Network Controllers
- Title(参考訳): 合理的ニューラルネットワーク制御
- Authors: Matthew Newton and Antonis Papachristodoulou
- Abstract要約: 最近の研究は、制御システム(ニューラルフィードバックループとして知られる)におけるニューラルネットワークの有効性を実証している。
このアプローチの大きな課題のひとつは、ニューラルネットワークが敵の攻撃に敏感であることが示されていることだ。
本稿では、有理性ニューラルネットワークを考察し、ニューラルフィードバックループのロバストネス問題に有効に使用できる新しい有理性活性化関数を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have shown great success in many machine learning related
tasks, due to their ability to act as general function approximators. Recent
work has demonstrated the effectiveness of neural networks in control systems
(known as neural feedback loops), most notably by using a neural network as a
controller. However, one of the big challenges of this approach is that neural
networks have been shown to be sensitive to adversarial attacks. This means
that, unless they are designed properly, they are not an ideal candidate for
controllers due to issues with robustness and uncertainty, which are pivotal
aspects of control systems. There has been initial work on robustness to both
analyse and design dynamical systems with neural network controllers. However,
one prominent issue with these methods is that they use existing neural network
architectures tailored for traditional machine learning tasks. These structures
may not be appropriate for neural network controllers and it is important to
consider alternative architectures. This paper considers rational neural
networks and presents novel rational activation functions, which can be used
effectively in robustness problems for neural feedback loops. Rational
activation functions are replaced by a general rational neural network
structure, which is convex in the neural network's parameters. A method is
proposed to recover a stabilising controller from a Sum of Squares feasibility
test. This approach is then applied to a refined rational neural network which
is more compatible with Sum of Squares programming. Numerical examples show
that this method can successfully recover stabilising rational neural network
controllers for neural feedback loops with non-linear plants with noise and
parametric uncertainty.
- Abstract(参考訳): ニューラルネットワークは多くの機械学習関連のタスクで大きな成功を収めている。
近年の研究では、ニューラルネットワークをコントローラとして使用することで、制御システム(神経フィードバックループとして知られる)におけるニューラルネットワークの有効性が実証されている。
しかし、このアプローチの大きな課題の1つは、ニューラルネットワークが敵の攻撃に敏感であることが示されていることである。
これは、適切に設計されない限り、制御システムの重要な側面である堅牢性と不確実性の問題のため、コントローラの理想的な候補ではないことを意味する。
ニューラルネットワークコントローラを用いた動的システムの解析と設計の両面での堅牢性に関する初期の研究がある。
しかし、これらの方法の大きな問題のひとつは、従来の機械学習タスクに適した既存のニューラルネットワークアーキテクチャを使用していることだ。
これらの構造はニューラルネットワークコントローラには適さない可能性があり、代替アーキテクチャを検討することが重要である。
本稿では、有理性ニューラルネットワークを考察し、ニューラルフィードバックループのロバストネス問題に有効に使用できる新しい有理性活性化関数を提案する。
合理的活性化関数は、ニューラルネットワークのパラメータの凸である一般的な合理的ニューラルネットワーク構造に置き換えられる。
正方形化可能性テストの和から安定化制御器を回収する手法を提案する。
このアプローチは、SquaresプログラミングのSumとより互換性のある洗練された有理ニューラルネットワークに適用される。
数値的な例では、雑音やパラメトリック不確実性のある非線形植物を用いた神経フィードバックループに対する合理的ニューラルネットワーク制御器の安定化に成功できることが示されている。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Message Passing Variational Autoregressive Network for Solving Intractable Ising Models [6.261096199903392]
自己回帰型ニューラルネットワーク、畳み込み型ニューラルネットワーク、リカレントニューラルネットワーク、グラフニューラルネットワークなど、多くのディープニューラルネットワークがIsingモデルの解決に使用されている。
本稿では、スピン変数間の相互作用を効果的に活用できるメッセージパッシング機構を備えた変分自己回帰アーキテクチャを提案する。
新しいネットワークは、アニーリングフレームワークの下で訓練され、いくつかの原型スピンハミルトニアンの解法、特に低温での大きなスピン系において、既存の方法よりも優れている。
論文 参考訳(メタデータ) (2024-04-09T11:27:07Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Self-Healing Robust Neural Networks via Closed-Loop Control [23.360913637445964]
典型的な自己修復機構は人体の免疫系である。
本稿では,ニューラルネットワークの学習後の自己修復について考察する。
本研究では,様々な攻撃や摂動によるエラーを自動的に検出し,修正するクローズドループ制御式を提案する。
論文 参考訳(メタデータ) (2022-06-26T20:25:35Z) - Consistency of Neural Networks with Regularization [0.0]
本稿では,ニューラルネットワークの規則化による一般的な枠組みを提案し,その一貫性を実証する。
双曲関数(Tanh)と整形線形単位(ReLU)の2種類の活性化関数が検討されている。
論文 参考訳(メタデータ) (2022-06-22T23:33:39Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - The mathematics of adversarial attacks in AI -- Why deep learning is
unstable despite the existence of stable neural networks [69.33657875725747]
固定アーキテクチャを用いた分類問題に対するニューラルネットワークのトレーニングに基づくトレーニング手順が,不正確あるいは不安定なニューラルネットワーク(正確であれば)を生み出すことを証明している。
鍵となるのは、安定かつ正確なニューラルネットワークは入力に依存する可変次元を持つ必要があり、特に、可変次元は安定性に必要な条件である。
我々の結果は、正確で安定したニューラルネットワークが存在するというパラドックスを示しているが、現代のアルゴリズムはそれらを計算していない。
論文 参考訳(メタデータ) (2021-09-13T16:19:25Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - Deep Kronecker neural networks: A general framework for neural networks
with adaptive activation functions [4.932130498861987]
我々は,適応的アクティベーション機能を持つニューラルネットワークの汎用フレームワークとして,新しいタイプのニューラルネットワークKronecker Neural Network(KNN)を提案する。
適切な条件下では、KNNはフィードフォワードネットワークによる損失よりも早く損失を減少させる。
論文 参考訳(メタデータ) (2021-05-20T04:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。