論文の概要: Deep Reservoir Networks with Learned Hidden Reservoir Weights using
Direct Feedback Alignment
- arxiv url: http://arxiv.org/abs/2010.06209v3
- Date: Thu, 15 Oct 2020 03:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:36:08.420057
- Title: Deep Reservoir Networks with Learned Hidden Reservoir Weights using
Direct Feedback Alignment
- Title(参考訳): 直接フィードバックアライメントを用いた学習型貯留層重み付き深層貯留層ネットワーク
- Authors: Matthew Evanusa and Cornelia Ferm\"uller and Yiannis Aloimonos
- Abstract要約: 本稿では時系列予測と分類のための新しいDeep Reservoir Networkを提案する。
直接フィードバックアライメント(Direct Feedback Alignment)と呼ばれる生物学的にインスパイアされたバックプロパゲーションの代替手段を使って、差別化不可能な隠れた貯水層を通して学習する。
2つの実世界多次元時系列データセット上で有効性を示す。
- 参考スコア(独自算出の注目度): 10.982390333064536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Reservoir Computing has emerged as a new paradigm for deep learning,
which is based around the reservoir computing principle of maintaining random
pools of neurons combined with hierarchical deep learning. The reservoir
paradigm reflects and respects the high degree of recurrence in biological
brains, and the role that neuronal dynamics play in learning. However, one
issue hampering deep reservoir network development is that one cannot
backpropagate through the reservoir layers. Recent deep reservoir architectures
do not learn hidden or hierarchical representations in the same manner as deep
artificial neural networks, but rather concatenate all hidden reservoirs
together to perform traditional regression. Here we present a novel Deep
Reservoir Network for time series prediction and classification that learns
through the non-differentiable hidden reservoir layers using a
biologically-inspired backpropagation alternative called Direct Feedback
Alignment, which resembles global dopamine signal broadcasting in the brain. We
demonstrate its efficacy on two real world multidimensional time series
datasets.
- Abstract(参考訳): ディープラーニングのための新しいパラダイムとしてDeep Reservoir Computingが登場した。これは、階層的なディープラーニングと組み合わせたランダムなニューロンプールを維持するための貯水池コンピューティングの原則に基づいている。
貯水池のパラダイムは、生物学的脳における高い再発度と、学習においてニューロンのダイナミクスが果たす役割を反映し、尊重する。
しかしながら、深い貯水池ネットワーク開発を妨げる問題の一つは、貯水池層をバックプロパゲートできないことである。
近年の深層貯留層アーキテクチャは、深い人工ニューラルネットワークと同様の方法で隠れたあるいは階層的な表現を学習せず、伝統的な回帰を行うためにすべての隠れた貯留層を結合している。
本稿では,脳内ドーパミン信号の送信に類似した,生物学的にインスパイアされたバックプロパゲーション手法であるDirect Feedback Alignmentを用いた,時系列予測と分類のための新しいDeep Reservoir Networkを提案する。
2つの実世界多次元時系列データセットでその効果を示す。
関連論文リスト
- Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Topological Continual Learning with Wasserstein Distance and Barycenter [0.0]
ニューラルネットワークにおける継続的な学習は、破滅的な忘れという現象に悩まされる。
トレーニング中にニューラルネットワークのサイクル構造をペナライズする新しいトポロジカル正規化を提案する。
提案手法は,複数の画像分類データセットに対して,浅層および深層ネットワークアーキテクチャの両方に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T03:46:20Z) - The Mori-Zwanzig formulation of deep learning [3.2851683371946754]
我々は,可逆統計力学の森・ズワンジグ形式に基づく新しいディープラーニングの定式化を開発する。
新しい方程式は、ディープニューラルネットワークの新しい効果的なパラメータ化を開発する出発点として使用できる。
論文 参考訳(メタデータ) (2022-09-12T18:44:50Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Hierarchical Associative Memory [2.66512000865131]
Associative Memories や Modern Hopfield Networks は、多くの魅力的な特性を持っている。
パターン補完を行い、多数のメモリを格納し、リカレントニューラルネットワークを使用して記述することができる。
本稿では,任意の数のレイヤを持つ連想メモリの完全再帰モデルについて述べる。
論文 参考訳(メタデータ) (2021-07-14T01:38:40Z) - Predify: Augmenting deep neural networks with brain-inspired predictive
coding dynamics [0.5284812806199193]
我々は神経科学の一般的な枠組みからインスピレーションを得た:「予測コーディング」
本稿では、この戦略をVGG16とEfficientNetB0という2つの人気ネットワークに実装することで、様々な汚職に対する堅牢性を向上させることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:48:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Neural Contextual Bandits with Deep Representation and Shallow
Exploration [105.8099566651448]
本稿では,深部ReLUニューラルネットワークの最後の隠蔽層を用いて,原特徴ベクトルを変換する新しい学習アルゴリズムを提案する。
既存のニューラルネットワークと比較して、ディープニューラルネットワークの最後の層でのみ探索する必要があるため、我々のアプローチは計算的にはるかに効率的です。
論文 参考訳(メタデータ) (2020-12-03T09:17:55Z) - Local plasticity rules can learn deep representations using
self-supervised contrastive predictions [3.6868085124383616]
生物学的制約を尊重するが、深い階層的な表現をもたらす学習規則はまだ不明である。
本稿では,神経科学からインスピレーションを得た学習ルールを提案し,近年の自己教師型深層学習の進歩について述べる。
この自己監督的かつ局所的なルールで訓練されたネットワークは、画像、音声、ビデオの深い階層的表現を構築する。
論文 参考訳(メタデータ) (2020-10-16T09:32:35Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。