論文の概要: Spark: Modular Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2602.02306v1
- Date: Mon, 02 Feb 2026 16:36:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.298615
- Title: Spark: Modular Spiking Neural Networks
- Title(参考訳): Spark: モジュールスパイクニューラルネットワーク
- Authors: Mario Franco, Carlos Gershenson,
- Abstract要約: ニューラルネットワークをスパイクする新しいフレームワークであるSparkを紹介します。
このフレームワークの目的は、ニューラルネットワークをスパイクするための効率的で合理化されたパイプラインを提供することである。
簡単な塑性機構を用いてスパース逆カートポール問題を解くことで,この枠組みを実証する。
- 参考スコア(独自算出の注目度): 0.042970700836450486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, neural networks act as a synonym for artificial intelligence. Present neural network models, although remarkably powerful, are inefficient both in terms of data and energy. Several alternative forms of neural networks have been proposed to address some of these problems. Specifically, spiking neural networks are suitable for efficient hardware implementations. However, effective learning algorithms for spiking networks remain elusive, although it is suspected that effective plasticity mechanisms could alleviate the problem of data efficiency. Here, we present a new framework for spiking neural networks - Spark - built upon the idea of modular design, from simple components to entire models. The aim of this framework is to provide an efficient and streamlined pipeline for spiking neural networks. We showcase this framework by solving the sparse-reward cartpole problem with simple plasticity mechanisms. We hope that a framework compatible with traditional ML pipelines may accelerate research in the area, specifically for continuous and unbatched learning, akin to the one animals exhibit.
- Abstract(参考訳): 今日では、ニューラルネットワークは人工知能のシノニムとして機能している。
現在のニューラルネットワークモデルは、非常に強力だが、データとエネルギーの両面で非効率である。
これらの問題に対処するために、いくつかの代替型ニューラルネットワークが提案されている。
具体的には、スパイクニューラルネットワークは効率的なハードウェア実装に適している。
しかし、スパイクネットワークの効果的な学習アルゴリズムはいまだ解明されていないが、効果的な塑性メカニズムがデータ効率の問題を緩和する可能性があると推測されている。
ここでは、単純なコンポーネントからモデル全体に至るまで、モジュラー設計のアイデアに基づいて構築された、ニューラルネットワークをスパイクする新しいフレームワークであるSparkを紹介します。
このフレームワークの目的は、ニューラルネットワークをスパイクするための効率的で合理化されたパイプラインを提供することである。
簡単な塑性機構を用いてスパース逆カートポール問題を解くことで,この枠組みを実証する。
従来のMLパイプラインと互換性のあるフレームワークが、この分野の研究を加速させることを願っている。
関連論文リスト
- Spiking Neural Networks with Random Network Architecture [0.0]
この研究は、ニューラルネットワークをスパイクするための新しいアーキテクチャであるRanSNNを提案している。
ニューラルネットワークをスパイクする従来のトレーニング手法と比較して、トレーニング性能を確保しながらトレーニング効率を大幅に向上し、ベンチマークテストで検証されたように、優れた汎用性と安定性を持つ。
論文 参考訳(メタデータ) (2025-05-19T18:03:55Z) - Message Passing Variational Autoregressive Network for Solving Intractable Ising Models [6.261096199903392]
自己回帰型ニューラルネットワーク、畳み込み型ニューラルネットワーク、リカレントニューラルネットワーク、グラフニューラルネットワークなど、多くのディープニューラルネットワークがIsingモデルの解決に使用されている。
本稿では、スピン変数間の相互作用を効果的に活用できるメッセージパッシング機構を備えた変分自己回帰アーキテクチャを提案する。
新しいネットワークは、アニーリングフレームワークの下で訓練され、いくつかの原型スピンハミルトニアンの解法、特に低温での大きなスピン系において、既存の方法よりも優れている。
論文 参考訳(メタデータ) (2024-04-09T11:27:07Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - SpikiLi: A Spiking Simulation of LiDAR based Real-time Object Detection
for Autonomous Driving [0.0]
Spiking Neural Networksは、電力効率、計算効率、処理遅延を大幅に改善する新しいニューラルネットワーク設計アプローチである。
まず,複雑なディープラーニングタスク,すなわちLidarベースの3Dオブジェクト検出による自動運転への適用性について説明する。
論文 参考訳(メタデータ) (2022-06-06T20:05:17Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - Learning from Event Cameras with Sparse Spiking Convolutional Neural
Networks [0.0]
畳み込みニューラルネットワーク(CNN)は現在、コンピュータビジョン問題のデファクトソリューションとなっている。
イベントカメラとスピーキングニューラルネットワーク(SNN)を用いたエンドツーエンドの生物学的インスパイアされたアプローチを提案する。
この手法は、一般的なディープラーニングフレームワークPyTorchを使用して、イベントデータに直接スパーススパイクニューラルネットワークのトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-26T13:52:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。