論文の概要: N-Omniglot: a Large-scale Dataset for Spatio-Temporal Sparse Few-shot
Learning
- arxiv url: http://arxiv.org/abs/2112.13230v1
- Date: Sat, 25 Dec 2021 12:41:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 17:33:43.597002
- Title: N-Omniglot: a Large-scale Dataset for Spatio-Temporal Sparse Few-shot
Learning
- Title(参考訳): N-Omniglot:時空間スパースファウショット学習のための大規模データセット
- Authors: Yang Li, Yiting Dong, Dongcheng Zhao, Yi Zeng
- Abstract要約: 我々は、Dynamic Vision Sensor (DVS)を用いて、最初のニューロモルフィックデータセット、N-Omniglotを提供する。
1623種類の手書き文字が含まれており、クラスごとに20のサンプルしか持たない。
このデータセットは、数ショットの学習領域でSNNアルゴリズムを開発するための強力なチャレンジと適切なベンチマークを提供する。
- 参考スコア(独自算出の注目度): 10.812738608234321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning (learning with a few samples) is one of the most important
capacities of the human brain. However, the current artificial intelligence
systems meet difficulties in achieving this ability, so as the biologically
plausible spiking neural networks (SNNs). Datasets for traditional few-shot
learning domains provide few amounts of temporal information. And the absence
of the neuromorphic datasets has hindered the development of few-shot learning
for SNNs. Here, we provide the first neuromorphic dataset: N-Omniglot, using
the Dynamic Vision Sensor (DVS). It contains 1623 categories of handwritten
characters, with only 20 samples per class. N-Omniglot eliminates the need for
a neuromorphic dataset for SNNs with high spareness and tremendous temporal
coherence. Additionally, the dataset provides a powerful challenge and a
suitable benchmark for developing SNNs algorithm in the few-shot learning
domain due to the chronological information of strokes. We also provide the
improved nearest neighbor, convolutional network, SiameseNet, and meta-learning
algorithm in spiking version for verification.
- Abstract(参考訳): ごくわずかの学習(サンプルの学習)は人間の脳の最も重要な能力の1つである。
しかし、現在の人工知能システムは、生物学的に妥当なスパイクニューラルネットワーク(SNN)のように、この能力を達成するのに難しい。
伝統的な数ショットの学習領域のデータセットは、時間的情報が少ない。
そして、ニューロモルフィックデータセットがないことは、SNNのための数発の学習を妨げている。
ここでは、dynamic vision sensor (dvs) を用いた最初のニューロモルフィックデータセット n-omniglot を提供する。
手書き文字のカテゴリは1623種類あり、クラスごとにサンプルは20種類しかない。
N-Omniglotは、高い予備性と極めて時間的コヒーレンスを持つSNNのためのニューロモルフィックデータセットの必要性を排除する。
さらに、このデータセットは、ストロークの時系列情報のために、数ショットの学習領域でSNNアルゴリズムを開発するための強力なチャレンジと適切なベンチマークを提供する。
またspykingバージョンでは,改良された近距離,畳み込みネットワーク,siamesenet,メタラーニングアルゴリズムも提供する。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - NeuroMoCo: A Neuromorphic Momentum Contrast Learning Method for Spiking Neural Networks [18.038225756466844]
本稿では脳誘発スパイキングニューラルネットワーク(SNN)のためのニューロモルフィック・モーメント・コントラスト学習(NeuroMoCo)を紹介する。
SNNにおいて、モーメントコントラスト学習に基づく自己教師型学習(SSL)が実現されたのはこれが初めてである。
DVS-CI10、DVS128Gesture、N-Caltech101の実験は、NeuroMoCoが新しい最先端(SOTA)ベンチマークを確立することを示した。
論文 参考訳(メタデータ) (2024-06-10T14:20:48Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - PC-SNN: Supervised Learning with Local Hebbian Synaptic Plasticity based
on Predictive Coding in Spiking Neural Networks [1.6172800007896282]
本稿では,予測符号化理論に触発された新しい学習アルゴリズムを提案する。
教師あり学習を完全自律的に行うことができ、バックプロップとして成功することを示す。
この手法は,最先端の多層SNNと比較して,良好な性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T09:56:02Z) - Making a Spiking Net Work: Robust brain-like unsupervised machine
learning [0.0]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
論文 参考訳(メタデータ) (2022-08-02T02:10:00Z) - Incorporating Learnable Membrane Time Constant to Enhance Learning of
Spiking Neural Networks [36.16846259899793]
スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力、消費電力の低さ、高い生物学的信頼性により、膨大な研究関心を集めている。
既存の学習方法はウェイトのみを学習し、単一のスパイキングニューロンのダイナミクスを決定する膜関連パラメータを手動でチューニングする必要がある。
本稿では,脳の領域で膜関連パラメータが異なることの観察から着想を得て,シナプス重みだけでなく,SNNの膜時間定数も学習可能なトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-11T14:35:42Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Comparing SNNs and RNNs on Neuromorphic Vision Datasets: Similarities
and Differences [36.82069150045153]
スパイキングニューラルネットワーク(SNN)とリカレントニューラルネットワーク(RNN)は、ニューロモルフィックデータに基づいてベンチマークされる。
本研究では,SNNとRNNをニューロモルフィックデータと比較するための系統的研究を行う。
論文 参考訳(メタデータ) (2020-05-02T10:19:37Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。