論文の概要: Asynchronous Bioplausible Neuron for Spiking Neural Networks for
Event-Based Vision
- arxiv url: http://arxiv.org/abs/2311.11853v1
- Date: Mon, 20 Nov 2023 15:45:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 18:14:41.864390
- Title: Asynchronous Bioplausible Neuron for Spiking Neural Networks for
Event-Based Vision
- Title(参考訳): イベントベースビジョンのためのスパイクニューラルネットワークのための非同期バイオプレースブルニューロン
- Authors: Sanket Kachole, Hussain Sajwani, Fariborz Baghaei Naeini, Dimitrios
Makris, Yahya Zweiri
- Abstract要約: Spiking Neural Networks (SNN) は、生物学的にインスパイアされたコンピュータビジョンのアプローチを提供する。
ABN(Asynchronous Bioplausible Neuron)は、入力信号の変動を自動的に調整する動的スパイク発火機構である。
様々なデータセットの包括的評価は、画像分類とセグメンテーションにおけるABNの強化された性能を示す。
- 参考スコア(独自算出の注目度): 1.9249287163937974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) offer a biologically inspired approach to
computer vision that can lead to more efficient processing of visual data with
reduced energy consumption. However, maintaining homeostasis within these
networks is challenging, as it requires continuous adjustment of neural
responses to preserve equilibrium and optimal processing efficiency amidst
diverse and often unpredictable input signals. In response to these challenges,
we propose the Asynchronous Bioplausible Neuron (ABN), a dynamic spike firing
mechanism to auto-adjust the variations in the input signal. Comprehensive
evaluation across various datasets demonstrates ABN's enhanced performance in
image classification and segmentation, maintenance of neural equilibrium, and
energy efficiency.
- Abstract(参考訳): spiking neural networks (snns)は、コンピュータビジョンに生物学的にインスパイアされたアプローチを提供し、エネルギー消費量を削減した視覚データのより効率的な処理を可能にする。
しかし,ネットワーク内のホメオスタシスの維持には,多様かつ予測不能な入力信号に対して,平衡と最適処理効率を維持するために,神経応答の継続的な調整が不可欠である。
これらの課題に対応するために、入力信号の変動を自動的に調整する動的スパイク発火機構であるABN(Asynchronous Bioplausible Neuron)を提案する。
様々なデータセットにわたる包括的評価は、画像分類とセグメンテーション、神経平衡の維持、エネルギー効率におけるABNの強化された性能を示す。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Energy-efficient Spiking Neural Network Equalization for IM/DD Systems
with Optimized Neural Encoding [53.909333359654276]
スパイクニューラルネットワークに基づくIM/DDシステムのエネルギー効率の等化器を提案する。
エネルギー消費を低減しつつ、等化器の性能を高めるニューラルスパイク符号化を最適化する。
論文 参考訳(メタデータ) (2023-12-20T10:45:24Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z) - Spiking Neural Networks for Frame-based and Event-based Single Object
Localization [26.51843464087218]
スパイクニューラルネットワークは、人工ニューラルネットワークに代わるエネルギー効率の高い代替手段として、多くの可能性を示してきた。
代用勾配降下法を用いて学習した単一物体の局所化に対するスパイクニューラルネットワークアプローチを提案する。
提案手法を類似の人工知能ニューラルネットワークと比較した結果, 精度, 各種汚損対策, エネルギー消費量の低減が得られた。
論文 参考訳(メタデータ) (2022-06-13T22:22:32Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - BackEISNN: A Deep Spiking Neural Network with Adaptive Self-Feedback and
Balanced Excitatory-Inhibitory Neurons [8.956708722109415]
スパイクニューラルネットワーク(SNN)は離散スパイクを通して情報を伝達し、空間時間情報を処理するのによく機能する。
適応型自己フィードバックと平衡興奮性および抑制性ニューロン(BackEISNN)を用いた深部スパイクニューラルネットワークを提案する。
MNIST、FashionMNIST、N-MNISTのデータセットに対して、我々のモデルは最先端の性能を達成した。
論文 参考訳(メタデータ) (2021-05-27T08:38:31Z) - Learning in Deep Neural Networks Using a Biologically Inspired Optimizer [5.144809478361604]
人工神経(ANN)とスパイクニューラルネット(SNN)にインスパイアされた新しい生物モデルを提案する。
GRAPESは、ニューラルネットワークの各ノードにおけるエラー信号の重量分布依存変調を実装している。
生物学的にインスパイアされたこのメカニズムは,ネットワークの収束率を体系的に改善し,ANNやSNNの分類精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2021-04-23T13:50:30Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。