論文の概要: Adding numbers with spiking neural circuits on neuromorphic hardware
- arxiv url: http://arxiv.org/abs/2503.10387v1
- Date: Thu, 13 Mar 2025 14:04:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:54:34.027541
- Title: Adding numbers with spiking neural circuits on neuromorphic hardware
- Title(参考訳): ニューロモルフィックハードウェア上でのスパイクニューラルネットワークによる数の追加
- Authors: Oskar von Seeler, Elena C. Offenberg, Carlo Michaelis, Jannik Luboeinski, Andrew B. Lehr, Christian Tetzlaff,
- Abstract要約: 我々はLavaソフトウェアフレームワークに1つのシーケンシャルおよび2つの並列バイナリ加算器を実装し、それらをニューロモルフィックチップであるLoihi 2にデプロイする。
本稿では、時間複雑性、ニューロン、シナプスリソース、および現在の実装で追加できる数値のビット幅の制約について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Progress in neuromorphic computing requires efficient implementation of standard computational problems, like adding numbers. Here we implement one sequential and two parallel binary adders in the Lava software framework, and deploy them to the neuromorphic chip Loihi 2. We describe the time complexity, neuron and synaptic resources, as well as constraints on the bit width of the numbers that can be added with the current implementations. Further, we measure the time required for the addition operation on-chip. Importantly, we encounter trade-offs in terms of time complexity and required chip resources for the three considered adders. While sequential adders have linear time complexity $\bf\mathcal{O}(n)$ and require a linearly increasing number of neurons and synapses with number of bits $n$, the parallel adders have constant time complexity $\bf\mathcal{O}(1)$ and also require a linearly increasing number of neurons, but nonlinearly increasing synaptic resources (scaling with $\bf n^2$ or $\bf n \sqrt{n}$). This trade-off between compute time and chip resources may inform decisions in application development, and the implementations we provide may serve as a building block for further progress towards efficient neuromorphic algorithms.
- Abstract(参考訳): ニューロモルフィックコンピューティングの進歩は、数の追加のような標準的な計算問題の効率的な実装を必要とする。
ここでは、Lavaソフトウェアフレームワークに1つのシーケンシャルおよび2つの並列バイナリ加算器を実装し、それらをニューロモルフィックチップであるLoihi 2にデプロイする。
本稿では、時間複雑性、ニューロン、シナプスリソース、および現在の実装で追加できる数値のビット幅の制約について述べる。
さらに,チップ上での追加動作に要する時間を測定した。
重要なのは、時間的複雑さと考慮された3つの加算器に必要なチップリソースという観点で、トレードオフに直面していることです。
シーケンシャルな加算器は線形時間複雑性を持つ$\bf\mathcal{O}(n)$と、ビット数$n$で線形に増加するニューロンとシナプスを必要とするが、並列的な加算器は一定の時間複雑性を持つ$\bf\mathcal{O}(1)$と、線形に増加するニューロンの数も必要だが、非線形に増加するシナプス的な資源($\bf n^2$または$\bf n \sqrt{n}$)も必要である。
この計算時間とチップリソースのトレードオフは、アプリケーション開発における決定を知らせる可能性があるし、私たちが提供する実装は、効率的なニューロモルフィックアルゴリズムへのさらなる進歩のためのビルディングブロックとして機能するかもしれない。
関連論文リスト
- Ultra-low-power Image Classification on Neuromorphic Hardware [3.784976081087904]
スパイキングニューラルネットワーク(SNN)は、時間的および空間的間隔を利用して超低消費電力の応用を約束する。
空間的特徴に大きく依存する視覚タスクの時間的バックプロパゲーションを用いたSNNの訓練には,計算コストがかかる。
本稿では,最初のスパイクまでの時間に基づく時間的ANN-to-SNN変換法であるQuartzを提案する。
論文 参考訳(メタデータ) (2023-09-28T18:53:43Z) - On the Computational Complexity and Formal Hierarchy of Second Order
Recurrent Neural Networks [59.85314067235965]
2次次リカレントネットワーク(RNN)の理論基盤を拡大する(2次RNN)
有界時間でチューリング完備な RNN のクラスが存在することを証明している。
また、記憶のない2ドルのRNNは、バニラRNNのような現代のモデルよりも優れており、正規文法の認識において繰り返し単位をゲートしていることを示す。
論文 参考訳(メタデータ) (2023-09-26T06:06:47Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - Linear Bandit Algorithms with Sublinear Time Complexity [67.21046514005029]
既存の線形バンディットアルゴリズムを高速化し,arms $k$ でステップ毎の複雑性サブリニアを実現する。
提案するアルゴリズムは、いくつかの$alpha(t) > 0$ と $widetilde o(stt)$ regret に対して1ステップあたり$o(k1-alpha(t))$ の複雑さを達成することができる。
論文 参考訳(メタデータ) (2021-03-03T22:42:15Z) - Compiling Spiking Neural Networks to Mitigate Neuromorphic Hardware
Constraints [0.30458514384586394]
スパイキングニューラルネットワーク(SNN)は、資源制約と電力制約のあるプラットフォーム上での計算制約付きパターン認識を効率的に行う。
ニューロモルフィックハードウェア上で実行されるSNNは、これらのプラットフォームのエネルギー消費をさらに削減することができる。
論文 参考訳(メタデータ) (2020-11-27T19:10:23Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Quantum computing model of an artificial neuron with continuously valued
input data [0.0]
人工ニューロン(英: Artificial Neuron)は、入力ベクトルの形で一連のデータに対して単純な数学的操作を行う計算ユニットである。
従来導入されていた量子人工ニューロンの実装は、離散値の入力ベクトルではなく、連続的に受け入れるように一般化できることを示す。
論文 参考訳(メタデータ) (2020-07-28T14:56:58Z) - Matrix Shuffle-Exchange Networks for Hard 2D Tasks [2.4493299476776778]
Matrix Shuffle-Exchangeネットワークは、2Dデータにおける長距離依存関係を効率的に利用することができる。
畳み込みニューラルネットワークに匹敵する速度を持つ。
論文 参考訳(メタデータ) (2020-06-29T09:38:54Z) - Neuromorphic Nearest-Neighbor Search Using Intel's Pohoiki Springs [3.571324984762197]
脳内では、何十億もの相互接続されたニューロンが極低エネルギーレベルで高速な計算を行う。
ここでは768個の相互接続されたLoihiチップのメッシュであるPohoiki Springsニューロモルフィックシステムを紹介します。
我々は、ニューロモルフィック原理を利用する大規模データベースを探索するために、スケーラブルな近似k-nearest neighbor (k-NN)アルゴリズムを実証する。
論文 参考訳(メタデータ) (2020-04-27T10:23:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。