論文の概要: Deep Spiking Convolutional Neural Network for Single Object Localization
Based On Deep Continuous Local Learning
- arxiv url: http://arxiv.org/abs/2105.05609v1
- Date: Wed, 12 May 2021 12:02:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:22:19.364559
- Title: Deep Spiking Convolutional Neural Network for Single Object Localization
Based On Deep Continuous Local Learning
- Title(参考訳): deep spiking convolutional neural network for single object localization based based deep continuous local learning (情報ネットワーク)
- Authors: Sami Barchid, Jos\'e Mennesson, Chaabane Dj\'eraba
- Abstract要約: グレースケール画像における単一物体の局所化のための深部畳み込みスパイクニューラルネットワークを提案する。
Oxford-IIIT-Petで報告された結果は、教師付き学習アプローチによるスパイクニューラルネットワークの活用を検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advent of neuromorphic hardware, spiking neural networks can be a
good energy-efficient alternative to artificial neural networks. However, the
use of spiking neural networks to perform computer vision tasks remains
limited, mainly focusing on simple tasks such as digit recognition. It remains
hard to deal with more complex tasks (e.g. segmentation, object detection) due
to the small number of works on deep spiking neural networks for these tasks.
The objective of this paper is to make the first step towards modern computer
vision with supervised spiking neural networks. We propose a deep convolutional
spiking neural network for the localization of a single object in a grayscale
image. We propose a network based on DECOLLE, a spiking model that enables
local surrogate gradient-based learning. The encouraging results reported on
Oxford-IIIT-Pet validates the exploitation of spiking neural networks with a
supervised learning approach for more elaborate vision tasks in the future.
- Abstract(参考訳): ニューロモルフィックハードウェアの出現により、スパイクニューラルネットワークは、人工ニューラルネットワークのエネルギー効率の良い代替手段となり得る。
しかし、コンピュータビジョンタスクの実行にスパイクニューラルネットワークを使うことは、主に数字認識のような単純なタスクに焦点を当て、制限されている。
より複雑なタスク(例えば、)を扱うのは難しいままです。
セグメンテーション(セグメンテーション、オブジェクト検出) これらのタスクのためにディープスパイクニューラルネットワークの作業が少ないためです。
本稿では,スパイキングニューラルネットワークを用いた最新のコンピュータビジョンに向けて,第一歩を踏み出すことを目的とした。
グレースケール画像における単一物体の局所化のための深部畳み込みスパイクニューラルネットワークを提案する。
本稿では,局所的な代理勾配に基づく学習を可能にするスパイキングモデルであるDECOLLEに基づくネットワークを提案する。
Oxford-IIIT-Petで報告された奨励的な結果は、将来的にはより精巧な視覚タスクのために教師付き学習アプローチによるスパイクニューラルネットワークの活用を検証する。
関連論文リスト
- Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Functional Connectome: Approximating Brain Networks with Artificial
Neural Networks [1.952097552284465]
訓練されたディープニューラルネットワークは、合成生物学的ネットワークによって実行される計算を高精度に捉えることができることを示す。
訓練されたディープニューラルネットワークは、新しい環境でゼロショットの一般化を実行可能であることを示す。
本研究は, システム神経科学における新規かつ有望な方向性を明らかにする。
論文 参考訳(メタデータ) (2022-11-23T13:12:13Z) - A Faster Approach to Spiking Deep Convolutional Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、現在のディープニューラルネットワークよりも脳に近いダイナミクスを持つ。
ネットワークのランタイムと精度を改善するために,従来の作業に基づくネットワーク構造を提案する。
論文 参考訳(メタデータ) (2022-10-31T16:13:15Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Visual Attention Network [90.0753726786985]
本稿では,自己アテンションにおける自己適応性および長距離相関を実現するために,新しいカーネルアテンション(LKA)モジュールを提案する。
また、LKAに基づく新しいニューラルネットワーク、すなわちVisual Attention Network (VAN)を導入する。
VANは、最先端のビジョントランスフォーマーと畳み込みニューラルネットワークを、広範な実験において大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-02-20T06:35:18Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - Deep physical neural networks enabled by a backpropagation algorithm for
arbitrary physical systems [3.7785805908699803]
本稿では,ディープニューラルネットワークモデルを実現するための急進的な代替手段を提案する。
ニューラルネットとして機能する制御可能な物理システムのシーケンスを効率的に学習するために,物理認識トレーニングと呼ばれるハイブリッド物理デジタルアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-04-27T18:00:02Z) - Theoretical Analysis of the Advantage of Deepening Neural Networks [0.0]
ディープニューラルネットワークによって計算可能な関数の表現性を知ることが重要である。
この2つの基準により,深層ニューラルネットワークの表現性を向上させる上で,各層におけるユニットの増加よりも,レイヤの増加の方が効果的であることを示す。
論文 参考訳(メタデータ) (2020-09-24T04:10:50Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。