論文の概要: Learning from Event Cameras with Sparse Spiking Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2104.12579v1
- Date: Mon, 26 Apr 2021 13:52:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:32:55.160818
- Title: Learning from Event Cameras with Sparse Spiking Convolutional Neural
Networks
- Title(参考訳): スパーススパイク畳み込みニューラルネットワークを用いたイベントカメラからの学習
- Authors: Lo\"ic Cordone, Beno\^it Miramond and Sonia Ferrante
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は現在、コンピュータビジョン問題のデファクトソリューションとなっている。
イベントカメラとスピーキングニューラルネットワーク(SNN)を用いたエンドツーエンドの生物学的インスパイアされたアプローチを提案する。
この手法は、一般的なディープラーニングフレームワークPyTorchを使用して、イベントデータに直接スパーススパイクニューラルネットワークのトレーニングを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Convolutional neural networks (CNNs) are now the de facto solution for
computer vision problems thanks to their impressive results and ease of
learning. These networks are composed of layers of connected units called
artificial neurons, loosely modeling the neurons in a biological brain.
However, their implementation on conventional hardware (CPU/GPU) results in
high power consumption, making their integration on embedded systems difficult.
In a car for example, embedded algorithms have very high constraints in term of
energy, latency and accuracy. To design more efficient computer vision
algorithms, we propose to follow an end-to-end biologically inspired approach
using event cameras and spiking neural networks (SNNs). Event cameras output
asynchronous and sparse events, providing an incredibly efficient data source,
but processing these events with synchronous and dense algorithms such as CNNs
does not yield any significant benefits. To address this limitation, we use
spiking neural networks (SNNs), which are more biologically realistic neural
networks where units communicate using discrete spikes. Due to the nature of
their operations, they are hardware friendly and energy-efficient, but training
them still remains a challenge. Our method enables the training of sparse
spiking convolutional neural networks directly on event data, using the popular
deep learning framework PyTorch. The performances in terms of accuracy,
sparsity and training time on the popular DVS128 Gesture Dataset make it
possible to use this bio-inspired approach for the future embedding of
real-time applications on low-power neuromorphic hardware.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、目覚ましい結果と学習の容易さのおかげで、コンピュータビジョン問題に対する事実上の解決策になった。
これらのネットワークは、人工ニューロンと呼ばれる接続されたユニットの層で構成され、生物学的脳内のニューロンをゆるくモデル化する。
しかし、従来のハードウェア(CPU/GPU)への実装は高消費電力となり、組み込みシステムへの統合が困難になる。
例えば自動車では、組込みアルゴリズムはエネルギー、レイテンシ、精度の面で非常に高い制約がある。
より効率的なコンピュータビジョンアルゴリズムを設計するために、イベントカメラとスパイクニューラルネットワーク(SNN)を用いたエンドツーエンドの生物学的なアプローチを提案する。
イベントカメラは非同期かつスパースなイベントを出力し、信じられないほど効率的なデータソースを提供するが、CNNのような同期的で高密度なアルゴリズムでこれらのイベントを処理することは、大きなメリットをもたらすことはない。
この制限に対処するために、スパイキングニューラルネットワーク(SNN)を使用し、これはより生物学的に現実的なニューラルネットワークであり、ユニットは離散スパイクを使用して通信する。
運用の性質上、ハードウェアフレンドリーでエネルギ効率が高いが、トレーニングは依然として課題である。
提案手法は,一般的なディープラーニングフレームワークであるPyTorchを用いて,イベントデータから直接,スパーススパイク畳み込みニューラルネットワークのトレーニングを可能にする。
一般的なDVS128 Gesture Datasetの精度、空間性、トレーニング時間の面でのパフォーマンスは、このバイオインスパイアされたアプローチを使って、低消費電力のニューロモルフィックハードウェアにリアルタイムアプリケーションを埋め込むことができる。
関連論文リスト
- Detection of Fast-Moving Objects with Neuromorphic Hardware [12.323012135924374]
スパイキングニューラルネットワーク(SNN)は、しばしば次世代ニューラルネットワーク(NN)と見なされる。
ニューロモルフィックコンピューティング(NC)とSNNは、しばしば次世代ニューラルネットワーク(NN)と見なされる。
論文 参考訳(メタデータ) (2024-03-15T20:53:10Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Object Detection with Spiking Neural Networks on Automotive Event Data [0.0]
我々は、イベントカメラから直接スパイキングニューラルネットワーク(SNN)を訓練し、高速で効率的な自動車組込みアプリケーションを設計することを提案する。
本稿では,2つの自動車イベントデータセットの実験を行い,スパイクニューラルネットワークのための最先端の分類結果を確立した。
論文 参考訳(メタデータ) (2022-05-09T14:39:47Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Lossless Compression of Deep Neural Networks [17.753357839478575]
ディープニューラルネットワークは、画像や言語認識など、多くの予測モデリングタスクで成功している。
モバイルデバイスのような限られた計算資源の下でこれらのネットワークをデプロイすることは困難である。
生成した出力を変更せずに、ニューラルネットワークの単位と層を除去するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-01-01T15:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。