論文の概要: A Long Short-Term Memory for AI Applications in Spike-based Neuromorphic
Hardware
- arxiv url: http://arxiv.org/abs/2107.03992v1
- Date: Thu, 8 Jul 2021 17:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:20:27.808917
- Title: A Long Short-Term Memory for AI Applications in Spike-based Neuromorphic
Hardware
- Title(参考訳): スパイク型ニューロモーフィックハードウェアにおけるAI応用のための長期記憶
- Authors: Philipp Plank, Arjun Rao, Andreas Wild, Wolfgang Maass
- Abstract要約: スパイクベースのニューロモルフィックハードウェアにおいて、ディープニューラルネットワーク(DNN)を使用する現在の人工知能(AI)メソッドがよりエネルギー効率よく実装できる範囲に、オープンな問題がある。
私たちはこの問題を解決する生物学的にインスパイアされた解決策を提示します。
本手法により,時系列分類や質問応答などのシーケンス処理タスクに対して,ニューロモルフィックハードウェア上での省エネ機能を備えた大規模なDNNを実装できる。
- 参考スコア(独自算出の注目度): 1.3381749415517017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In spite of intensive efforts it has remained an open problem to what extent
current Artificial Intelligence (AI) methods that employ Deep Neural Networks
(DNNs) can be implemented more energy-efficiently on spike-based neuromorphic
hardware. This holds in particular for AI methods that solve sequence
processing tasks, a primary application target for spike-based neuromorphic
hardware. One difficulty is that DNNs for such tasks typically employ Long
Short-Term Memory (LSTM) units. Yet an efficient emulation of these units in
spike-based hardware has been missing. We present a biologically inspired
solution that solves this problem. This solution enables us to implement a
major class of DNNs for sequence processing tasks such as time series
classification and question answering with substantial energy savings on
neuromorphic hardware. In fact, the Relational Network for reasoning about
relations between objects that we use for question answering is the first
example of a large DNN that carries out a sequence processing task with
substantial energy-saving on neuromorphic hardware.
- Abstract(参考訳): 集中的な努力にもかかわらず、Deep Neural Networks (DNN) を用いた現在の人工知能(AI)メソッドがスパイクベースのニューロモルフィックハードウェアでよりエネルギー効率良く実装できる範囲において、未解決の問題となっている。
これは特に、スパイクベースのニューロモルフィックハードウェアの主要なアプリケーションターゲットであるシーケンス処理タスクを解決するaiメソッドに当てはまる。
このようなタスクのDNNでは、一般的にLSTM(Long Short-Term Memory)ユニットが使用される。
しかし、スパイクベースのハードウェアにおけるこれらのユニットの効率的なエミュレーションが欠落している。
我々は、この問題を解決する生物学的にインスパイアされた解決策を提案する。
本手法により,時系列分類や質問応答などのシーケンス処理タスクに対して,ニューロモルフィックハードウェア上での省エネ機能を備えた大規模なDNNを実装できる。
実際、私たちが質問応答に使用するオブジェクト間の関係を推論するためのリレーショナルネットワークは、ニューロモルフィックなハードウェア上でかなりの省エネルギーを備えたシーケンス処理タスクを実行する大規模なdnnの最初の例です。
関連論文リスト
- Detection of Fast-Moving Objects with Neuromorphic Hardware [12.323012135924374]
スパイキングニューラルネットワーク(SNN)は、しばしば次世代ニューラルネットワーク(NN)と見なされる。
ニューロモルフィックコンピューティング(NC)とSNNは、しばしば次世代ニューラルネットワーク(NN)と見なされる。
論文 参考訳(メタデータ) (2024-03-15T20:53:10Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Expanding memory in recurrent spiking networks [2.8237889121096034]
リカレントスパイキングニューラルネットワーク(RSNN)は、スパイクのバイナリの性質によって強化される、消失する勾配問題のために訓練が難しいことで知られている。
我々はこれらの制限を回避する新しいスパイクニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-10-29T16:46:26Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Thinking Deeply with Recurrence: Generalizing from Easy to Hard
Sequential Reasoning Problems [51.132938969015825]
我々は、リカレントネットワークは、非リカレントディープモデルの振る舞いを詳細にエミュレートする能力を有することを観察する。
再帰ステップの少ない単純な迷路を解くように訓練された再帰ネットワークは、推論中に追加の繰り返しを実行するだけで、より複雑な問題を解決することができる。
論文 参考訳(メタデータ) (2021-02-22T14:09:20Z) - Solving a steady-state PDE using spiking networks and neuromorphic
hardware [0.2698200916728782]
並列およびイベント駆動構造を利用してランダムウォーク法を用いて定常熱方程式を解く。
我々はこのアルゴリズムをニューロモルフィックシステムの潜在的スケーラブルなベンチマークとして位置付ける。
論文 参考訳(メタデータ) (2020-05-21T21:06:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。