論文の概要: PyRCN: Exploration and Application of ESNs
- arxiv url: http://arxiv.org/abs/2103.04807v1
- Date: Mon, 8 Mar 2021 15:00:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 18:15:18.025229
- Title: PyRCN: Exploration and Application of ESNs
- Title(参考訳): PyRCN: ESNの探索と応用
- Authors: Peter Steiner (1), Azarakhsh Jalalvand (2), Simon Stone (1), Peter
Birkholz (2) ((1) Institute for Acoustics and Speech Communication,
Technische Universit\"at Dresden, Dresden, Germany, (2) IDLab, Ghent
University - imec, Ghent, Belgium)
- Abstract要約: エコー状態ネットワーク(ESN)は時間的タスクを解くことができるが、線形回帰に基づくトレーニングパラダイムは極めて容易である。
本稿では,理論と実践におけるESNの理解を促進することを目的とする。
本稿では,任意の大規模データセット上でのESNの開発,トレーニング,解析を行うためのPythonツールボックスであるPyRCNを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a family member of Recurrent Neural Networks and similar to
Long-Short-Term Memory cells, Echo State Networks (ESNs) are capable of solving
temporal tasks, but with a substantially easier training paradigm based on
linear regression. However, optimizing hyper-parameters and efficiently
implementing the training process might be somewhat overwhelming for the
first-time users of ESNs. This paper aims to facilitate the understanding of
ESNs in theory and practice. Treating ESNs as non-linear filters, we explain
the effect of the hyper-parameters using familiar concepts such as impulse
responses. Furthermore, the paper introduces the Python toolbox PyRCN (Python
Reservoir Computing Network) for developing, training and analyzing ESNs on
arbitrarily large datasets. The tool is based on widely-used scientific
packages, such as numpy and scipy and offers an interface to scikit-learn.
Example code and results for classification and regression tasks are provided.
- Abstract(参考訳): Recurrent Neural Networksのファミリーメンバーであり、Long-Short-Term Memory Cellと同様、Echo State Networks (ESNs)は時間的タスクを解くことができるが、線形回帰に基づくトレーニングパラダイムは極めて容易である。
しかし, ハイパーパラメータを最適化し, トレーニングプロセスを効率的に実装することは, ESNの初級ユーザにとってはやや圧倒的である。
本稿では,理論と実践におけるESNの理解を促進することを目的とする。
非線形フィルタとしてesnを扱い,インパルス応答などのよく知られた概念を用いてハイパーパラメータの効果を説明する。
さらに、PythonツールボックスPyRCN(Python Reservoir Computing Network)を導入し、任意に大規模なデータセット上でESNを開発し、トレーニングし、分析する。
このツールは、numpyやscipyなどの広く使われている科学パッケージに基づいており、Scikit-learnへのインタフェースを提供する。
分類および回帰タスクのサンプルコードと結果が提供される。
関連論文リスト
- SparseProp: Efficient Event-Based Simulation and Training of Sparse
Recurrent Spiking Neural Networks [4.532517021515834]
Spiking Neural Networks(SNN)は、生物学的にインスパイアされたモデルであり、アクションポテンシャルのストリームで情報を処理できる。
SparsePropはスパースSNNをシミュレートし、訓練するための新しいイベントベースアルゴリズムである。
論文 参考訳(メタデータ) (2023-12-28T18:48:10Z) - cito: An R package for training neural networks using torch [0.0]
citoは、ディープラーニング(DL)アプリケーションのためのユーザフレンドリーなRパッケージである。
多くのRパッケージで使われている慣れ親しんだ式構文でDNNを指定することができる。
「シトー」には、モデルプロットと分析のための多くのユーザフレンドリーな機能が含まれている。
論文 参考訳(メタデータ) (2023-03-16T18:54:20Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Analytic Learning of Convolutional Neural Network For Pattern
Recognition [20.916630175697065]
バックプロパゲーション(BP)を用いた学習畳み込みニューラルネットワーク(CNN)は、時間とリソースを消費する。
解析的畳み込みニューラルネットワーク学習(ACnnL)を提案する。
ACnnLは、その類似した閉形式解を構築するが、正規化の制約が異なる。
論文 参考訳(メタデータ) (2022-02-14T06:32:21Z) - Contextual HyperNetworks for Novel Feature Adaptation [43.49619456740745]
Contextual HyperNetwork(CHN)は、ベースモデルを新機能に拡張するためのパラメータを生成する。
予測時、CHNはニューラルネットワークを通る単一のフォワードパスのみを必要とし、大幅なスピードアップをもたらす。
本システムでは,既存のインプテーションやメタラーニングベースラインよりも,新しい特徴のマイズショット学習性能が向上することを示す。
論文 参考訳(メタデータ) (2021-04-12T23:19:49Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。