論文の概要: Minimal spiking neuron for solving multi-label classification tasks
- arxiv url: http://arxiv.org/abs/2003.02902v1
- Date: Thu, 5 Mar 2020 20:18:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:41:50.595161
- Title: Minimal spiking neuron for solving multi-label classification tasks
- Title(参考訳): マルチラベル分類課題を解くための最小スパイクニューロン
- Authors: Jakub Fil and Dominique Chu
- Abstract要約: 本稿では、スパイク応答モデルの特殊な事例である一般化ニューロンモデル(GNM)のファミリーを紹介する。
我々は、GNMが少なくともマルチスパイクテンポトロン(MST)と同様に、幅広いパラメータで学習できることを発見した。
- 参考スコア(独自算出の注目度): 0.5874142059884521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Multi-Spike Tempotron (MST) is a powerful single spiking neuron model
that can solve complex supervised classification tasks. While powerful, it is
also internally complex, computationally expensive to evaluate, and not
suitable for neuromorphic hardware. Here we aim to understand whether it is
possible to simplify the MST model, while retaining its ability to learn and to
process information. To this end, we introduce a family of Generalised Neuron
Models (GNM) which are a special case of the Spike Response Model and much
simpler and cheaper to simulate than the MST. We find that over a wide range of
parameters the GNM can learn at least as well as the MST. We identify the
temporal autocorrelation of the membrane potential as the single most important
ingredient of the GNM which enables it to classify multiple spatio-temporal
patterns. We also interpret the GNM as a chemical system, thus conceptually
bridging computation by neural networks with molecular information processing.
We conclude the paper by proposing alternative training approaches for the GNM
including error trace learning and error backpropagation.
- Abstract(参考訳): マルチスパイクテンポトロン(multi-spike tempotron、mst)は、複雑な教師付き分類タスクを解決できる強力な単一スパイクニューロンモデルである。
強力ではあるが、内部は複雑で、計算コストが高く、神経質なハードウェアには適していない。
本稿では,学習能力と情報処理能力を保ちながら,MSTモデルを簡素化できるかどうかを理解することを目的とする。
この目的のために、スパイク応答モデル(Spike Response Model)の特殊な例である一般化ニューロンモデル(Generalized Neuron Models, GNM)のファミリーを導入する。
我々は、GNMが少なくともMSTと同様に、幅広いパラメータで学習できることを発見した。
膜電位の時間的自己相関をGNMの1つの重要な成分として同定し,複数の時空間パターンを分類する。
また、GNMを化学系として解釈し、分子情報処理によるニューラルネットワークによる計算を概念的にブリッジする。
本稿では,gnmにおけるエラートレース学習とエラーバックプロパゲーションを含む代替訓練手法を提案する。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Denoise Pretraining on Nonequilibrium Molecules for Accurate and
Transferable Neural Potentials [8.048439531116367]
より正確で伝達可能なGNNポテンシャル予測を実現するために,非平衡分子配座の事前学習を提案する。
小分子で事前学習したモデルでは、顕著な伝達性を示し、多様な分子系で微調整された場合の性能が向上した。
論文 参考訳(メタデータ) (2023-03-03T21:15:22Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - Simple and complex spiking neurons: perspectives and analysis in a
simple STDP scenario [0.7829352305480283]
スパイキングニューラルネットワーク(SNN)は、生物学や神経科学にヒントを得て、高速で効率的な学習システムを構築する。
この研究は、文学における様々なニューロンモデルを考察し、単変数で効率的な計算ニューロンモデルを選択し、様々な種類の複雑さを提示する。
我々は, LIF, Quadratic I&F (QIF) および Exponential I&F (EIF) の3つの単純なI&Fニューロンモデルの比較研究を行い, より複雑なモデルの使用によってシステムの性能が向上するかどうかを検証した。
論文 参考訳(メタデータ) (2022-06-28T10:01:51Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Variational learning of quantum ground states on spiking neuromorphic
hardware [0.0]
高次元サンプリング空間と過渡自己相関は、難しい計算ボトルネックを伴うニューラルネットワークに直面する。
従来のニューラルネットワークと比較して、物理モデルデバイスは高速で効率的で本質的に並列な基板を提供する。
変動エネルギー最小化による量子スピンモデルの基底状態を表すニューロモルフィックチップの能力を示す。
論文 参考訳(メタデータ) (2021-09-30T14:39:45Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Neuromorphic Algorithm-hardware Codesign for Temporal Pattern Learning [11.781094547718595]
複雑な空間時間パターンを学習するためにSNNを訓練できるLeaky IntegrateとFireニューロンの効率的なトレーニングアルゴリズムを導出する。
我々は,ニューロンとシナプスのメムリスタに基づくネットワークのためのCMOS回路実装を開発した。
論文 参考訳(メタデータ) (2021-04-21T18:23:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。