論文の概要: Visual Pattern Recognition with on On-chip Learning: towards a Fully
Neuromorphic Approach
- arxiv url: http://arxiv.org/abs/2008.03470v1
- Date: Sat, 8 Aug 2020 08:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 09:13:25.567976
- Title: Visual Pattern Recognition with on On-chip Learning: towards a Fully
Neuromorphic Approach
- Title(参考訳): on-chip learningを用いた視覚パターン認識--完全ニューロモルフィックアプローチに向けて
- Authors: Sandro Baumgartner, Alpha Renner, Raphaela Kreiser, Dongchen Liang,
Giacomo Indiveri, Yulia Sandamirskaya
- Abstract要約: ニューロモルフィックハードウェア上でのオンチップ学習による視覚パターン認識のためのスパイキングニューラルネットワーク(SNN)を提案する。
このネットワークは、ダイナミック・ビジョン・センサーによって知覚される水平と垂直のバーからなる単純な視覚パターンを学習することができることを示す。
認識中、ネットワークはパターンのアイデンティティを分類し、同時にその位置とスケールを推定する。
- 参考スコア(独自算出の注目度): 10.181725314550823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a spiking neural network (SNN) for visual pattern recognition with
on-chip learning on neuromorphichardware. We show how this network can learn
simple visual patterns composed of horizontal and vertical bars sensed by a
Dynamic Vision Sensor, using a local spike-based plasticity rule. During
recognition, the network classifies the pattern's identity while at the same
time estimating its location and scale. We build on previous work that used
learning with neuromorphic hardware in the loop and demonstrate that the
proposed network can properly operate with on-chip learning, demonstrating a
complete neuromorphic pattern learning and recognition setup. Our results show
that the network is robust against noise on the input (no accuracy drop when
adding 130% noise) and against up to 20% noise in the neuron parameters.
- Abstract(参考訳): ニューロモルフィックハードウェア上でのオンチップ学習による視覚パターン認識のためのスパイキングニューラルネットワーク(SNN)を提案する。
このネットワークは,局所スパイクに基づく可塑性則を用いて,動的視覚センサによって検出される水平および垂直のバーからなる単純な視覚パターンを学習する方法を示す。
認識中、ネットワークはパターンのアイデンティティを分類し、同時にその位置とスケールを推定する。
我々は,ループ内でニューロモルフィックハードウェアを用いた学習を用いた先行研究に基づいて,提案するネットワークがオンチップ学習で適切に動作できることを実証し,完全なニューロモルフィックパターン学習と認識設定の実証を行った。
その結果、入力のノイズ(130%のノイズを付加した場合の精度低下はない)とニューロンパラメータの最大20%のノイズに対して、ネットワークは堅牢であることがわかった。
関連論文リスト
- Supervised learning of spatial features with STDP and homeostasis using
Spiking Neural Networks on SpiNNaker [45.12105635806665]
本稿では,スパイキングニューラルネットワーク(SNN)を用いた教師あり学習手法を提案する。
SNNは1つまたは複数のパターンを認識するように訓練され、ネットワークのパフォーマンスを測定するためにパフォーマンスメトリクスが抽出される。
一つのネットワーク上で訓練されたパターンの数が増加するにつれて、識別の精度はこれらのパターンの類似性と関連付けられる。
論文 参考訳(メタデータ) (2023-12-05T10:53:31Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - NeRN -- Learning Neural Representations for Neural Networks [3.7384109981836153]
ニューラルネットワークを正しく適応させると、トレーニング済みの畳み込みニューラルネットワークの重みを表現できる。
従来のニューラル表現法の入力の座標にインスパイアされ、ネットワーク内の各畳み込みカーネルに座標を割り当てる。
我々は、NeRNを用いて学習した表現の能力を実証する2つのアプリケーションを提案する。
論文 参考訳(メタデータ) (2022-12-27T17:14:44Z) - How and what to learn:The modes of machine learning [7.085027463060304]
本稿では, 重み経路解析(WPA)と呼ばれる新しい手法を提案し, 多層ニューラルネットワークのメカニズムについて検討する。
WPAは、ニューラルネットワークが情報を「ホログラフィック」な方法で保存し、活用していることを示し、ネットワークはすべてのトレーニングサンプルをコヒーレントな構造にエンコードする。
隠れた層状ニューロンは学習過程の後半で異なるクラスに自己組織化することが判明した。
論文 参考訳(メタデータ) (2022-02-28T14:39:06Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。