論文の概要: Hyperdimensional Computing with Spiking-Phasor Neurons
- arxiv url: http://arxiv.org/abs/2303.00066v1
- Date: Tue, 28 Feb 2023 20:09:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:56:37.655329
- Title: Hyperdimensional Computing with Spiking-Phasor Neurons
- Title(参考訳): spiking-phasor ニューロンを用いた超次元計算
- Authors: Jeff Orchard, Russell Jarvis
- Abstract要約: シンボリックベクトルアーキテクチャ(VSAs)は、構成的推論を表現するための強力なフレームワークである。
スパイキングニューロンの基板上でVSAアルゴリズムを実行し、ニューロモルフィックハードウェア上で効率的に動作させることができる。
- 参考スコア(独自算出の注目度): 0.9594432031144714
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Vector Symbolic Architectures (VSAs) are a powerful framework for
representing compositional reasoning. They lend themselves to neural-network
implementations, allowing us to create neural networks that can perform
cognitive functions, like spatial reasoning, arithmetic, symbol binding, and
logic. But the vectors involved can be quite large, hence the alternative label
Hyperdimensional (HD) computing. Advances in neuromorphic hardware hold the
promise of reducing the running time and energy footprint of neural networks by
orders of magnitude. In this paper, we extend some pioneering work to run VSA
algorithms on a substrate of spiking neurons that could be run efficiently on
neuromorphic hardware.
- Abstract(参考訳): ベクトル記号アーキテクチャ(VSAs)は、構成的推論を表現するための強力なフレームワークである。
それらはニューラルネットワークの実装に役立ち、空間的推論、算術、記号結合、論理といった認知的機能を実行できるニューラルネットワークを作ることができます。
しかし、関連するベクトルは非常に大きく、それゆえ代替ラベルの超次元(hd)コンピューティングである。
ニューロモルフィックハードウェアの進歩は、ニューラルネットワークのランニング時間とエネルギーフットプリントを桁違いに削減するという約束を達成している。
本稿では,ニューロモルフィックハードウェア上で効率的に動作可能なスパイキングニューロンの基板上でVSAアルゴリズムを実行するための先駆的な作業を拡張する。
関連論文リスト
- Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - How can neuromorphic hardware attain brain-like functional capabilities? [0.6345523830122166]
現在のニューロモルフィックハードウェアは、標準的な人工ニューロンの代わりに脳のようなスパイクニューロンを使用している。
NMHWにおけるスパイキングニューロンのネットワークの現在のアーキテクチャとトレーニング方法は、主に人工ニューラルネットワークからコピーされている。
私たちは、NMHWで簡単に実装でき、脳のような機能をサポートする可能性のある原則に焦点を当てる必要があります。
論文 参考訳(メタデータ) (2023-10-25T08:09:52Z) - Sequence learning in a spiking neuronal network with memristive synapses [0.0]
脳計算の中心にある中核的な概念は、シーケンス学習と予測である。
ニューロモルフィックハードウェアは、脳が情報を処理する方法をエミュレートし、ニューロンとシナプスを直接物理的基質にマッピングする。
シークエンス学習モデルにおける生物学的シナプスの代替としてReRAMデバイスを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2022-11-29T21:07:23Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Gluing Neural Networks Symbolically Through Hyperdimensional Computing [8.209945970790741]
ニューラルネットワークの出力信号の最終的な分類を符号化するためにバイナリハイパーベクタを用いるという概念について検討する。
これにより、複数のニューラルネットワークが協力して問題を解決することができ、オーバーヘッドは少なくなる。
これは、非常に少ないオーバーヘッドを使用しながら、芸術の状態を上回り、あるいはそれと同等であることがわかった。
論文 参考訳(メタデータ) (2022-05-31T04:44:02Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - A Robust Learning Rule for Soft-Bounded Memristive Synapses Competitive
with Supervised Learning in Standard Spiking Neural Networks [0.0]
理論神経科学における見解は、脳を機能計算装置と見なしている。
関数を近似できることは、将来の脳研究のための基礎となる公理である。
本研究では,非自明な多次元関数の学習に,ニオブをドープしたチタン酸ストロンチウムの旋律的シナプスを制御した新しい教師付き学習アルゴリズムを適用する。
論文 参考訳(メタデータ) (2022-04-12T10:21:22Z) - Exposing Hardware Building Blocks to Machine Learning Frameworks [4.56877715768796]
我々は、そのようなニューロンをユニークな関数として補完するトポロジーを設計する方法に焦点をあてる。
我々は、カスタムの空間性と量子化によるニューラルネットワークのトレーニングを支援するライブラリを開発する。
論文 参考訳(メタデータ) (2020-04-10T14:26:00Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。