論文の概要: ES-ImageNet: A Million Event-Stream Classification Dataset for Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2110.12211v1
- Date: Sat, 23 Oct 2021 12:56:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 17:12:49.436512
- Title: ES-ImageNet: A Million Event-Stream Classification Dataset for Spiking
Neural Networks
- Title(参考訳): ES-ImageNet: ニューラルネットワークをスパイクするイベントストリーム分類データセット
- Authors: Yihan Lin, Wei Ding, Shaohua Qiang, Lei Deng, Guoqi Li
- Abstract要約: 我々は,Omnidirectional Discrete Gradient (ODG) と呼ばれる高速かつ効率的なアルゴリズムを提案し,一般的なコンピュータビジョンデータセットであるILSVRC2012をイベントストリーム(ES)バージョンに変換する。
このようにして、ES-ImageNetは、現在、他のニューロモーフィック分類データセットの数十倍の大きさで、ソフトウェアによって完全に生成される。
- 参考スコア(独自算出の注目度): 12.136368750042688
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With event-driven algorithms, especially the spiking neural networks (SNNs),
achieving continuous improvement in neuromorphic vision processing, a more
challenging event-stream-dataset is urgently needed. However, it is well known
that creating an ES-dataset is a time-consuming and costly task with
neuromorphic cameras like dynamic vision sensors (DVS). In this work, we
propose a fast and effective algorithm termed Omnidirectional Discrete Gradient
(ODG) to convert the popular computer vision dataset ILSVRC2012 into its
event-stream (ES) version, generating about 1,300,000 frame-based images into
ES-samples in 1000 categories. In this way, we propose an ES-dataset called
ES-ImageNet, which is dozens of times larger than other neuromorphic
classification datasets at present and completely generated by the software.
The ODG algorithm implements an image motion to generate local value changes
with discrete gradient information in different directions, providing a
low-cost and high-speed way for converting frame-based images into event
streams, along with Edge-Integral to reconstruct the high-quality images from
event streams. Furthermore, we analyze the statistics of the ES-ImageNet in
multiple ways, and a performance benchmark of the dataset is also provided
using both famous deep neural network algorithms and spiking neural network
algorithms. We believe that this work shall provide a new large-scale benchmark
dataset for SNNs and neuromorphic vision.
- Abstract(参考訳): イベント駆動アルゴリズム、特にスパイキングニューラルネットワーク(SNN)では、ニューロモルフィックな視覚処理の継続的な改善を実現するため、より困難なイベントストリームデータセットが必要である。
しかし、ESデータセットの作成は、ダイナミックビジョンセンサー(DVS)のようなニューロモルフィックカメラにおいて、時間と費用のかかる作業であることが知られている。
本研究では,人気のあるコンピュータビジョンデータセットであるilsvrc2012をイベントストリーム(es)バージョンに変換し,約1,300,000フレームベースの画像から1000カテゴリのesサンプルを生成する,全方位離散勾配(odg)と呼ばれる高速かつ効果的なアルゴリズムを提案する。
そこで我々は,es-imagenetというes-datasetを提案する。es-imagenetは,現在,他のニューロモルフィック分類データセットよりも数十倍大きく,ソフトウェアによって完全に生成される。
ODGアルゴリズムは、異なる方向の離散勾配情報で局所的な値変化を発生させるイメージモーションを実装し、Edge-Integralとともに、フレームベースの画像をイベントストリームに変換する低コストで高速な方法を提供する。
さらに、ES-ImageNetの統計データを複数の方法で分析し、有名なディープニューラルネットワークアルゴリズムとスパイクニューラルネットワークアルゴリズムの両方を用いてデータセットのパフォーマンスベンチマークも提供する。
この研究は、SNNとニューロモルフィックビジョンのための新しい大規模ベンチマークデータセットを提供すると信じている。
関連論文リスト
- Event-Stream Super Resolution using Sigma-Delta Neural Network [0.10923877073891444]
イベントカメラは、それらが収集するデータの低解像度で疎結合で非同期な性質のため、ユニークな課題を示す。
現在のイベント超解像アルゴリズムは、イベントカメラによって生成された異なるデータ構造に対して完全に最適化されていない。
バイナリスパイクをSigma Delta Neural Networks(SDNNs)と統合する手法を提案する
論文 参考訳(メタデータ) (2024-08-13T15:25:18Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Enhancing Small Object Encoding in Deep Neural Networks: Introducing
Fast&Focused-Net with Volume-wise Dot Product Layer [0.0]
我々は、小さなオブジェクトを固定長特徴ベクトルに符号化するのに適した、新しいディープニューラルネットワークアーキテクチャであるFast&Focused-Netを紹介する。
Fast&Focused-Netは、CNNのいくつかの固有の制限に対処するために設計された、新たに提案された一連のレイヤであるVDP(Volume-wise Dot Product)レイヤを採用しています。
CIFAR-10, CIFAR-100, STL-10, SVHN-Cropped, Fashion-MNISTなどのデータセットでは, オブジェクト分類タスクにおいて, ネットワークが最先端の手法よりも優れていた。
画像分類における変換器エンコーダ(ViT)と組み合わせた場合
論文 参考訳(メタデータ) (2024-01-18T09:31:25Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。