論文の概要: Implementing and Benchmarking the Locally Competitive Algorithm on the
Loihi 2 Neuromorphic Processor
- arxiv url: http://arxiv.org/abs/2307.13762v1
- Date: Tue, 25 Jul 2023 18:43:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 14:35:27.392633
- Title: Implementing and Benchmarking the Locally Competitive Algorithm on the
Loihi 2 Neuromorphic Processor
- Title(参考訳): Loihi 2ニューロモルフィックプロセッサ上での局所競合アルゴリズムの実装とベンチマーク
- Authors: Gavin Parpart, Sumedh R. Risbud, Garrett T. Kenyon, Yijing Watkins
- Abstract要約: 局所競合アルゴリズム(LCA)は、ニューロモルフィックプロセッサ上での効率的なスパース符号化に利用されている。
ロイヒ2号のLCAは、同様の復元品質を維持しながら、大規模な刑罰に対して、桁違いに効率的かつ高速な命令である。
- 参考スコア(独自算出の注目度): 5.352699766206807
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neuromorphic processors have garnered considerable interest in recent years
for their potential in energy-efficient and high-speed computing. The Locally
Competitive Algorithm (LCA) has been utilized for power efficient sparse coding
on neuromorphic processors, including the first Loihi processor. With the Loihi
2 processor enabling custom neuron models and graded spike communication, more
complex implementations of LCA are possible. We present a new implementation of
LCA designed for the Loihi 2 processor and perform an initial set of benchmarks
comparing it to LCA on CPU and GPU devices. In these experiments LCA on Loihi 2
is orders of magnitude more efficient and faster for large sparsity penalties,
while maintaining similar reconstruction quality. We find this performance
improvement increases as the LCA parameters are tuned towards greater
representation sparsity.
Our study highlights the potential of neuromorphic processors, particularly
Loihi 2, in enabling intelligent, autonomous, real-time processing on small
robots, satellites where there are strict SWaP (small, lightweight, and low
power) requirements. By demonstrating the superior performance of LCA on Loihi
2 compared to conventional computing device, our study suggests that Loihi 2
could be a valuable tool in advancing these types of applications. Overall, our
study highlights the potential of neuromorphic processors for efficient and
accurate data processing on resource-constrained devices.
- Abstract(参考訳): ニューロモルフィックプロセッサは、エネルギー効率と高速コンピューティングのポテンシャルのために近年かなりの関心を集めている。
Locally Competitive Algorithm (LCA)は、最初のLoihiプロセッサを含むニューロモルフィックプロセッサ上での効率的なスパース符号化に利用されている。
カスタムニューロンモデルとグレードスパイク通信を可能にするloihi 2プロセッサにより、lcaのより複雑な実装が可能になる。
本稿では,Loihi 2 プロセッサ用に設計された LCA の実装を提案し,CPU および GPU デバイス上で LCA との比較を行う。
これらの実験では、Loihi 2上のLCAは、同様の再現品質を維持しながら、大規模なペナルティに対して、桁違いに効率的かつ高速である。
lcaパラメータがより大きな表現スパーシティに向けて調整されるにつれて、このパフォーマンス改善が見られます。
我々の研究は、特にLoihi 2のようなニューロモルフィックプロセッサが、小型ロボットやSWaP(小型で軽量で低電力)の厳しい衛星でインテリジェントで自律的なリアルタイム処理を可能にする可能性を強調している。
Loihi 2 の LCA 性能を従来の計算装置と比較して向上させることにより,本研究は Loihi 2 がこれらの応用の進展に有用であることを示す。
本研究は,資源制約デバイス上での高速かつ正確なデータ処理のためのニューロモルフィックプロセッサの可能性を明らかにする。
関連論文リスト
- Analysis of Distributed Optimization Algorithms on a Real Processing-In-Memory System [21.09681871279162]
Processing-In-Memory(PIM)は、データ移動のボトルネックを軽減するための有望なソリューションである。
我々のゴールは、現実世界のPIMアーキテクチャ上で人気のある分散最適化アルゴリズムの機能と特性を理解することである。
論文 参考訳(メタデータ) (2024-04-10T17:00:04Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Towards making the most of NLP-based device mapping optimization for
OpenCL kernels [5.6596607119831575]
我々は、加速されたOpenCLカーネルのための最適なデバイス選択(CPUまたはGPU)の問題に取り組むCummins et al.、すなわちDeeptuneの開発を拡張した。
ソースコードの文脈情報を拡張した4つの異なるモデルを提案する。
実験の結果,提案手法はCumminsらの手法を上回り,予測精度を最大4%向上させることがわかった。
論文 参考訳(メタデータ) (2022-08-30T10:20:55Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - MAPLE: Microprocessor A Priori for Latency Estimation [81.91509153539566]
現代のディープニューラルネットワークは、低レイテンシとエネルギー消費を示しながら最先端の精度を示す必要がある。
評価されたアーキテクチャのレイテンシの測定は、NASプロセスにかなりの時間を加えます。
転送学習やドメイン適応に依存しない推定用マイクロプロセッサAプライオリティを提案する。
論文 参考訳(メタデータ) (2021-11-30T03:52:15Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Low-Power Low-Latency Keyword Spotting and Adaptive Control with a
SpiNNaker 2 Prototype and Comparison with Loihi [4.153110480139905]
我々は,第2世代SpiNNaker(SpiNNaker 2)ニューロモルフィックシステムのプロトタイプチップ上で,ニューラルネットワークに基づく2つのベンチマークタスクを実装した。
SpiNNaker 2 プロトタイプにおける乗算累積 (MAC) 配列の利点を強調した。
同じベンチマークタスクをLoihiニューロモルフィックチップ上で実装し、消費電力と計算時間について並べて比較した。
論文 参考訳(メタデータ) (2020-09-18T16:38:55Z) - Optimizing Deep Learning Recommender Systems' Training On CPU Cluster
Architectures [56.69373580921888]
クラウドコンピューティングセンターのAIサイクルの大部分を占めるRecommender Systemsに注目します。
HPC用に調整された最新のCPUハードウェアとソフトウェア上で動作可能にすることで、パフォーマンスの2桁以上の改善を達成できます。
論文 参考訳(メタデータ) (2020-05-10T14:40:16Z) - Heterogeneous CPU+GPU Stochastic Gradient Descent Algorithms [1.3249453757295084]
ヘテロジニアスCPU+GPUアーキテクチャの深層学習のためのトレーニングアルゴリズムについて検討する。
私たちの2倍の目標 -- 収束率と資源利用を同時に最大化する -- は、この問題を難しくします。
これらのアルゴリズムの実装は,複数の実データセットよりも高速な収束と資源利用の両立を実現していることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:21:20Z) - Memristor Hardware-Friendly Reinforcement Learning [14.853739554366351]
そこで我々は,強化学習におけるアクター・クリティック・アルゴリズムのための経験的ニューロモルフィック・ハードウェアの実装を提案する。
RLと制御理論の両方において古典的な問題である逆振り子のバランスをとることを考える。
本研究は,メムリスタをベースとしたハードウェアニューラルネットワークを用いて複雑なタスクをその場での強化学習によって処理する可能性を示唆している。
論文 参考訳(メタデータ) (2020-01-20T01:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。