論文の概要: A Temporal Neural Network Architecture for Online Learning
- arxiv url: http://arxiv.org/abs/2011.13844v2
- Date: Mon, 22 Feb 2021 22:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:21:07.867399
- Title: A Temporal Neural Network Architecture for Online Learning
- Title(参考訳): オンライン学習のための時間的ニューラルネットワークアーキテクチャ
- Authors: James E. Smith
- Abstract要約: 時間的ニューラルネットワーク(TNN)は、相対スパイク時間として符号化された情報を通信し、処理する。
TNNアーキテクチャを提案し、概念実証として、オンライン教師付き分類のより大きな文脈でTNNの動作を示す。
- 参考スコア(独自算出の注目度): 0.6091702876917281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A long-standing proposition is that by emulating the operation of the brain's
neocortex, a spiking neural network (SNN) can achieve similar desirable
features: flexible learning, speed, and efficiency. Temporal neural networks
(TNNs) are SNNs that communicate and process information encoded as relative
spike times (in contrast to spike rates). A TNN architecture is proposed, and,
as a proof-of-concept, TNN operation is demonstrated within the larger context
of online supervised classification. First, through unsupervised learning, a
TNN partitions input patterns into clusters based on similarity. The TNN then
passes a cluster identifier to a simple online supervised decoder which
finishes the classification task. The TNN learning process adjusts synaptic
weights by using only signals local to each synapse, and clustering behavior
emerges globally. The system architecture is described at an abstraction level
analogous to the gate and register transfer levels in conventional digital
design. Besides features of the overall architecture, several TNN components
are new to this work. Although not addressed directly, the overall research
objective is a direct hardware implementation of TNNs. Consequently, all the
architecture elements are simple, and processing is done at very low precision.
- Abstract(参考訳): 脳新皮質の動作をエミュレートすることで、スパイキングニューラルネットワーク(SNN)は、フレキシブルラーニング、スピード、効率といった、同様の望ましい特徴を達成できる、というのが長年の仮説である。
テンポラルニューラルネットワーク(TNN)は、(スパイクレートとは対照的に)相対スパイクタイムとして符号化された情報を通信し処理するSNNである。
TNNアーキテクチャが提案され、概念実証として、オンライン教師付き分類のより大きな文脈でTNNの動作が実証される。
まず、教師なし学習を通じて、TNNは類似性に基づいて入力パターンをクラスタに分割する。
その後、TNNはクラスタ識別子を単純なオンライン教師付きデコーダに渡し、分類タスクを終了させる。
TNN学習プロセスは,各シナプスに局所的な信号のみを用いてシナプス重みを調整する。
システムアーキテクチャは、従来のデジタル設計におけるゲートおよびレジスタ転送レベルに類似した抽象レベルで記述される。
アーキテクチャ全体の機能に加えて、いくつかのTNNコンポーネントがこの作業に新しくなった。
直接の対応はないが、全体的な研究目的はTNNのハードウェア実装である。
したがって、すべてのアーキテクチャ要素は単純であり、処理は非常に低い精度で行われる。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Mining the Weights Knowledge for Optimizing Neural Network Structures [1.995792341399967]
タスク固有のニューラルネットワーク(略してTNN)の重みを入力として使用するスイッチャーニューラルネットワーク(SNN)を導入する。
重みに含まれる知識をマイニングすることで、SNNはTNNのニューロンをオフにするスケーリング因子を出力する。
精度の面では,ベースラインネットワークやその他の構造学習手法を安定的に,かつ著しく上回っている。
論文 参考訳(メタデータ) (2021-10-11T05:20:56Z) - SAR Image Classification Based on Spiking Neural Network through
Spike-Time Dependent Plasticity and Gradient Descent [7.106664778883502]
スパイキングニューラルネットワーク(SNN)は、脳のような知能のコアコンポーネントの1つである。
本稿では、教師なしおよび教師なし学習SNNに基づいて、完全なSAR画像を構築する。
論文 参考訳(メタデータ) (2021-06-15T09:36:04Z) - A Microarchitecture Implementation Framework for Online Learning with
Temporal Neural Networks [1.4530235554268331]
時間的ニューラルネットワーク(TNN)は、情報を表現し処理するためのリソースとして時間を使用するニューラルネットワークをスパイクしている。
本研究では,標準CMOSを用いたTNN実装のためのマイクロアーキテクチャフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-27T15:59:54Z) - Explore the Knowledge contained in Network Weights to Obtain Sparse
Neural Networks [2.649890751459017]
本稿では,ニューラルネットワーク(NN)における疎結合層の自動獲得のための新しい学習手法を提案する。
タスクニューラルネットワーク(TNN)の構造を最適化するためにスイッチングニューラルネットワーク(SNN)を設計する。
論文 参考訳(メタデータ) (2021-03-26T11:29:40Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。