論文の概要: Asynchronous Bioplausible Neuron for Spiking Neural Networks for
Event-Based Vision
- arxiv url: http://arxiv.org/abs/2311.11853v1
- Date: Mon, 20 Nov 2023 15:45:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-11-21 18:14:41.864390
- Title: Asynchronous Bioplausible Neuron for Spiking Neural Networks for
Event-Based Vision
- Title(参考訳): イベントベースビジョンのためのスパイクニューラルネットワークのための非同期バイオプレースブルニューロン
- Authors: Sanket Kachole, Hussain Sajwani, Fariborz Baghaei Naeini, Dimitrios
Makris, Yahya Zweiri
- Abstract要約: Spiking Neural Networks (SNN) は、生物学的にインスパイアされたコンピュータビジョンのアプローチを提供する。
ABN(Asynchronous Bioplausible Neuron)は、入力信号の変動を自動的に調整する動的スパイク発火機構である。
様々なデータセットの包括的評価は、画像分類とセグメンテーションにおけるABNの強化された性能を示す。
- 参考スコア(独自算出の注目度): 1.9249287163937974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) offer a biologically inspired approach to
computer vision that can lead to more efficient processing of visual data with
reduced energy consumption. However, maintaining homeostasis within these
networks is challenging, as it requires continuous adjustment of neural
responses to preserve equilibrium and optimal processing efficiency amidst
diverse and often unpredictable input signals. In response to these challenges,
we propose the Asynchronous Bioplausible Neuron (ABN), a dynamic spike firing
mechanism to auto-adjust the variations in the input signal. Comprehensive
evaluation across various datasets demonstrates ABN's enhanced performance in
image classification and segmentation, maintenance of neural equilibrium, and
energy efficiency.
- Abstract(参考訳): spiking neural networks (snns)は、コンピュータビジョンに生物学的にインスパイアされたアプローチを提供し、エネルギー消費量を削減した視覚データのより効率的な処理を可能にする。
しかし,ネットワーク内のホメオスタシスの維持には,多様かつ予測不能な入力信号に対して,平衡と最適処理効率を維持するために,神経応答の継続的な調整が不可欠である。
これらの課題に対応するために、入力信号の変動を自動的に調整する動的スパイク発火機構であるABN(Asynchronous Bioplausible Neuron)を提案する。
様々なデータセットにわたる包括的評価は、画像分類とセグメンテーション、神経平衡の維持、エネルギー効率におけるABNの強化された性能を示す。
関連論文リスト
- Adaptively Pruned Spiking Neural Networks for Energy-Efficient Intracortical Neural Decoding [0.06181089784338582]
ニューロモルフィックハードウェア上でのニューラルネットワーク(SNN)のスパイキングは、ニューラルデコーディングにおいて顕著な効率性を示している。
本稿では,脳皮質内神経復号をターゲットとした,高アクティベーション領域を有するSNNを対象とした適応型プルーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-15T19:16:34Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Spiking Meets Attention: Efficient Remote Sensing Image Super-Resolution with Attention Spiking Neural Networks [57.17129753411926]
従来の人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,AID,DOTA,DIORなどのリモートセンシングベンチマークにおいて,最先端の性能を実現するSpikeSRを提案する。
論文 参考訳(メタデータ) (2025-03-06T09:06:06Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - TAVRNN: Temporal Attention-enhanced Variational Graph RNN Captures Neural Dynamics and Behavior [2.5282283486446757]
時間注意強調変動グラフリカレントニューラルネットワーク(TAVRNN)について紹介する。
TAVRNNは、神経活動のシーケンシャルスナップショットをモデル化することにより、ネットワーク構造の時間的変化をキャプチャする。
TAVRNNは,分類,クラスタリング,計算効率において,従来のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-01T13:19:51Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - Energy-efficient Spiking Neural Network Equalization for IM/DD Systems
with Optimized Neural Encoding [53.909333359654276]
スパイクニューラルネットワークに基づくIM/DDシステムのエネルギー効率の等化器を提案する。
エネルギー消費を低減しつつ、等化器の性能を高めるニューラルスパイク符号化を最適化する。
論文 参考訳(メタデータ) (2023-12-20T10:45:24Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z) - BackEISNN: A Deep Spiking Neural Network with Adaptive Self-Feedback and
Balanced Excitatory-Inhibitory Neurons [8.956708722109415]
スパイクニューラルネットワーク(SNN)は離散スパイクを通して情報を伝達し、空間時間情報を処理するのによく機能する。
適応型自己フィードバックと平衡興奮性および抑制性ニューロン(BackEISNN)を用いた深部スパイクニューラルネットワークを提案する。
MNIST、FashionMNIST、N-MNISTのデータセットに対して、我々のモデルは最先端の性能を達成した。
論文 参考訳(メタデータ) (2021-05-27T08:38:31Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。