論文の概要: Deep neural network based adaptive learning for switched systems
- arxiv url: http://arxiv.org/abs/2207.04623v1
- Date: Mon, 11 Jul 2022 04:51:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 16:21:43.843511
- Title: Deep neural network based adaptive learning for switched systems
- Title(参考訳): 深層ニューラルネットワークを用いたスイッチトシステムの適応学習
- Authors: Junjie He, Zhihang Xu, Qifeng Liao
- Abstract要約: スイッチングシステムに対するディープニューラルネットワークに基づく適応学習(DNN-AL)アプローチを提案する。
観測されたデータセットは、各サブセット内の構造的変化など、アダプティブにサブセットに分解される。
以前のイテレーションステップのネットワークパラメータは、後続のイテレーションステップでネットワークを初期化するために再利用される。
- 参考スコア(独自算出の注目度): 0.3222802562733786
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present a deep neural network based adaptive learning
(DNN-AL) approach for switched systems. Currently, deep neural network based
methods are actively developed for learning governing equations in unknown
dynamic systems, but their efficiency can degenerate for switching systems,
where structural changes exist at discrete time instants. In this new DNN-AL
strategy, observed datasets are adaptively decomposed into subsets, such that
no structural changes within each subset. During the adaptive procedures, DNNs
are hierarchically constructed, and unknown switching time instants are
gradually identified. Especially, network parameters at previous iteration
steps are reused to initialize networks for the later iteration steps, which
gives efficient training procedures for the DNNs. For the DNNs obtained through
our DNN-AL, bounds of the prediction error are established. Numerical studies
are conducted to demonstrate the efficiency of DNN-AL.
- Abstract(参考訳): 本稿では、スイッチングシステムに対するディープニューラルネットワークに基づく適応学習(DNN-AL)アプローチを提案する。
現在、ディープニューラルネットワークに基づく手法は未知の動的システムの制御方程式を学習するために積極的に開発されているが、その効率性は、離散時間瞬間に構造変化が存在するスイッチングシステムにおいて低下する可能性がある。
この新しいDNN-AL戦略では、観測されたデータセットはアダプティブにサブセットに分解され、各サブセットに構造的変化はない。
適応処理の間、DNNは階層的に構築され、未知の切替時刻が徐々に識別される。
特に、以前のイテレーションステップのネットワークパラメータは、後続のイテレーションステップでネットワークを初期化するために再利用され、DNNの効率的なトレーニング手順が提供される。
DNN-ALを用いて得られたDNNに対して,予測誤差の境界を設定する。
DNN-ALの効率を示すために数値解析を行った。
関連論文リスト
- Topological Representations of Heterogeneous Learning Dynamics of Recurrent Spiking Neural Networks [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は神経科学と人工知能において重要なパラダイムとなっている。
近年,深層ニューラルネットワークのネットワーク表現について研究が進められている。
論文 参考訳(メタデータ) (2024-03-19T05:37:26Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Learning Ability of Interpolating Deep Convolutional Neural Networks [28.437011792990347]
我々は,深層ニューラルネットワーク,深層畳み込みニューラルネットワーク(DCNN)の重要なファミリーの学習能力について検討する。
非補間DCNNに適切に定義された層を追加することで、非補間DCNNの良好な学習率を維持する補間DCNNが得られることを示す。
我々の研究は、過度に適合したDCNNの一般化の理論的検証を提供する。
論文 参考訳(メタデータ) (2022-10-25T17:22:31Z) - On the Application of Data-Driven Deep Neural Networks in Linear and
Nonlinear Structural Dynamics [28.979990729816638]
線形および非線形構造力学系のサロゲートとしてディープニューラルネットワーク(DNN)モデルを用いる。
焦点は、完全に接続された、疎結合で、畳み込みネットワーク層を使った効率的なネットワークアーキテクチャの開発である。
提案したDNNは,高調波負荷下での線形および非線形動的応答の予測に有効かつ正確なサロゲートとして利用できることを示す。
論文 参考訳(メタデータ) (2021-11-03T13:22:19Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - Deep Neural Networks using a Single Neuron: Folded-in-Time Architecture
using Feedback-Modulated Delay Loops [0.0]
本稿では、任意の大きさのディープニューラルネットワークを、複数の時間遅延フィードバックループを持つ単一ニューロンに折り畳む方法を提案する。
本発明の単一ニューロン深部ニューラルネットワークは、単一の非線形性のみを含み、フィードバック信号の調整を適切に調整する。
Folded-in-time DNN(Fit-DNN)と呼ばれる新しい手法は、ベンチマークタスクのセットで有望な性能を示す。
論文 参考訳(メタデータ) (2020-11-19T21:45:58Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。