論文の概要: Real-Time Progressive Learning: Mutually Reinforcing Learning and
Control with Neural-Network-Based Selective Memory
- arxiv url: http://arxiv.org/abs/2308.04223v1
- Date: Tue, 8 Aug 2023 12:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 12:55:29.077488
- Title: Real-Time Progressive Learning: Mutually Reinforcing Learning and
Control with Neural-Network-Based Selective Memory
- Title(参考訳): リアルタイムプログレッシブラーニング:ニューラルネットワークに基づく選択記憶を用いた相互強化学習と制御
- Authors: Yiming Fei, Jiangang Li, Yanan Li
- Abstract要約: リアルタイム・プログレッシブ・ラーニング(RTPL)と呼ばれるリアルタイム・プログレッシブ・ラーニング手法を提案する。
RTPLベースの学習と制御は、タスク実行中に徐々に強化される。
- 参考スコア(独自算出の注目度): 2.31120983784623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory, as the basis of learning, determines the storage, update and
forgetting of the knowledge and further determines the efficiency of learning.
Featured with a mechanism of memory, a radial basis function neural network
(RBFNN) based learning control scheme named real-time progressive learning
(RTPL) is proposed to learn the unknown dynamics of the system with guaranteed
stability and closed-loop performance. Instead of the stochastic gradient
descent (SGD) update law in adaptive neural control (ANC), RTPL adopts the
selective memory recursive least squares (SMRLS) algorithm to update the
weights of the RBFNN. Through SMRLS, the approximation capabilities of the
RBFNN are uniformly distributed over the feature space and thus the passive
knowledge forgetting phenomenon of SGD method is suppressed. Subsequently, RTPL
achieves the following merits over the classical ANC: 1) guaranteed learning
capability under low-level persistent excitation (PE), 2) improved learning
performance (learning speed, accuracy and generalization capability), and 3)
low gain requirement ensuring robustness of RTPL in practical applications.
Moreover, the RTPL based learning and control will gradually reinforce each
other during the task execution, making it appropriate for long-term learning
control tasks. As an example, RTPL is used to address the tracking control
problem of a class of nonlinear systems with RBFNN being an adaptive
feedforward controller. Corresponding theoretical analysis and simulation
studies demonstrate the effectiveness of RTPL.
- Abstract(参考訳): 記憶は、学習の基盤として、知識の記憶、更新、および忘れることを決定し、さらに学習の効率を決定づける。
リアルタイム・プログレッシブ・ラーニング(RTPL)と呼ばれる,放射基底関数ニューラルネットワーク(RBFNN)に基づく学習制御方式を,安定性と閉ループ性能を保証したシステムの未知のダイナミクスを学習するために提案する。
適応型神経制御(ANC)における確率勾配降下(SGD)更新法則の代わりに、RTPLは選択型メモリ再帰最小二乗法(SMRLS)アルゴリズムを採用し、RBFNNの重みを更新する。
SMRLSを介してRBFNNの近似能力を特徴空間上に均一に分散し、SGD法の受動的知識忘れ現象を抑制する。
その後、RTPLは古典的なANCに対して以下のメリットを達成します。
1)低レベル持続励起(PE)下での学習能力保証
2)学習性能の向上(学習速度,精度,一般化能力)
3)実用用途におけるRTPLの堅牢性を確保する低利得要件。
さらに、rtplベースの学習と制御は、タスク実行中に徐々に強化され、長期学習制御タスクに適合する。
例えば、RTPLは適応フィードフォワードコントローラであるRBFNNを持つ非線形システムのクラスにおけるトラッキング制御問題に対処するために使用される。
対応する理論解析およびシミュレーション研究はrtplの有効性を示す。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Dynamics of Supervised and Reinforcement Learning in the Non-Linear Perceptron [3.069335774032178]
学習を記述するフロー方程式を導出するために,データセット処理アプローチを用いる。
学習ルール(教師付きまたは強化学習,SL/RL)と入力データ分布が知覚者の学習曲線に及ぼす影響を特徴付ける。
このアプローチは、より複雑な回路アーキテクチャの学習力学を解析する方法を示している。
論文 参考訳(メタデータ) (2024-09-05T17:58:28Z) - Real-Time Recurrent Reinforcement Learning [7.737685867200335]
RTRRLは,(1)メタRL RNNアーキテクチャを独自に実装したアクター・クリティカルなアルゴリズム,(2)メタRLネットワークをトレーニングするために時間差分学習とダッチ適性トレースを利用する外部強化学習アルゴリズム,(3)ネットワークのパラメータに関する勾配を計算するオンライン自動微分アルゴリズムであるRFLO学習の3つの部分から構成される。
論文 参考訳(メタデータ) (2023-11-08T16:56:16Z) - Improving Performance in Continual Learning Tasks using Bio-Inspired
Architectures [4.2903672492917755]
我々は,シナプスの可塑性機構とニューロ変調を組み込んだ,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
提案手法により,Split-MNIST,Split-CIFAR-10,Split-CIFAR-100データセット上でのオンライン連続学習性能が向上する。
さらに,鍵設計概念を他のバックプロパゲーションに基づく連続学習アルゴリズムに統合することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T19:12:52Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - lpSpikeCon: Enabling Low-Precision Spiking Neural Network Processing for
Efficient Unsupervised Continual Learning on Autonomous Agents [14.916996986290902]
効率的な教師なし連続学習のための低精度SNN処理を可能にする新しい手法であるlpSpikeConを提案する。
我々のlpSpikeConは、教師なし連続学習によるオンライントレーニングを行うために、SNNモデルの重量記憶を8倍(すなわち、4ビットの重みを司法的に採用することで)削減することができる。
論文 参考訳(メタデータ) (2022-05-24T18:08:16Z) - Neuromodulated Neural Architectures with Local Error Signals for
Memory-Constrained Online Continual Learning [4.2903672492917755]
我々は,局所学習とニューロ変調を取り入れた,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
一つの課題と連続的な学習環境の両方にアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-16T07:41:23Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。