論文の概要: Implementing and Benchmarking the Locally Competitive Algorithm on the
Loihi 2 Neuromorphic Processor
- arxiv url: http://arxiv.org/abs/2307.13762v1
- Date: Tue, 25 Jul 2023 18:43:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 14:35:27.392633
- Title: Implementing and Benchmarking the Locally Competitive Algorithm on the
Loihi 2 Neuromorphic Processor
- Title(参考訳): Loihi 2ニューロモルフィックプロセッサ上での局所競合アルゴリズムの実装とベンチマーク
- Authors: Gavin Parpart, Sumedh R. Risbud, Garrett T. Kenyon, Yijing Watkins
- Abstract要約: 局所競合アルゴリズム(LCA)は、ニューロモルフィックプロセッサ上での効率的なスパース符号化に利用されている。
ロイヒ2号のLCAは、同様の復元品質を維持しながら、大規模な刑罰に対して、桁違いに効率的かつ高速な命令である。
- 参考スコア(独自算出の注目度): 5.352699766206807
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neuromorphic processors have garnered considerable interest in recent years
for their potential in energy-efficient and high-speed computing. The Locally
Competitive Algorithm (LCA) has been utilized for power efficient sparse coding
on neuromorphic processors, including the first Loihi processor. With the Loihi
2 processor enabling custom neuron models and graded spike communication, more
complex implementations of LCA are possible. We present a new implementation of
LCA designed for the Loihi 2 processor and perform an initial set of benchmarks
comparing it to LCA on CPU and GPU devices. In these experiments LCA on Loihi 2
is orders of magnitude more efficient and faster for large sparsity penalties,
while maintaining similar reconstruction quality. We find this performance
improvement increases as the LCA parameters are tuned towards greater
representation sparsity.
Our study highlights the potential of neuromorphic processors, particularly
Loihi 2, in enabling intelligent, autonomous, real-time processing on small
robots, satellites where there are strict SWaP (small, lightweight, and low
power) requirements. By demonstrating the superior performance of LCA on Loihi
2 compared to conventional computing device, our study suggests that Loihi 2
could be a valuable tool in advancing these types of applications. Overall, our
study highlights the potential of neuromorphic processors for efficient and
accurate data processing on resource-constrained devices.
- Abstract(参考訳): ニューロモルフィックプロセッサは、エネルギー効率と高速コンピューティングのポテンシャルのために近年かなりの関心を集めている。
Locally Competitive Algorithm (LCA)は、最初のLoihiプロセッサを含むニューロモルフィックプロセッサ上での効率的なスパース符号化に利用されている。
カスタムニューロンモデルとグレードスパイク通信を可能にするloihi 2プロセッサにより、lcaのより複雑な実装が可能になる。
本稿では,Loihi 2 プロセッサ用に設計された LCA の実装を提案し,CPU および GPU デバイス上で LCA との比較を行う。
これらの実験では、Loihi 2上のLCAは、同様の再現品質を維持しながら、大規模なペナルティに対して、桁違いに効率的かつ高速である。
lcaパラメータがより大きな表現スパーシティに向けて調整されるにつれて、このパフォーマンス改善が見られます。
我々の研究は、特にLoihi 2のようなニューロモルフィックプロセッサが、小型ロボットやSWaP(小型で軽量で低電力)の厳しい衛星でインテリジェントで自律的なリアルタイム処理を可能にする可能性を強調している。
Loihi 2 の LCA 性能を従来の計算装置と比較して向上させることにより,本研究は Loihi 2 がこれらの応用の進展に有用であることを示す。
本研究は,資源制約デバイス上での高速かつ正確なデータ処理のためのニューロモルフィックプロセッサの可能性を明らかにする。
関連論文リスト
- Benchmarking Edge AI Platforms for High-Performance ML Inference [0.0]
エッジコンピューティングは、通信遅延を減らし、リアルタイム処理を可能にする能力から、高性能で異質なSystem-on-Chipソリューションの興隆を促進している。
現在のアプローチでは、現代的なハードウェアをスケールダウンすることが多いが、ニューラルネットワークワークロードのパフォーマンス特性は、大きく異なる場合がある。
我々は、CPUのみ、CPU/GPU、CPU/NPU統合ソリューション間で、様々な線形代数およびニューラルネットワーク推論タスクのレイテンシとスループットを比較した。
論文 参考訳(メタデータ) (2024-09-23T08:27:27Z) - Fast Algorithms and Implementations for Computing the Minimum Distance of Quantum Codes [43.96687298077534]
安定化器量子コードの距離は、検出および修正可能なエラーの数を決定する。
本稿では,関連する古典符号のシンプレクティック距離を計算するために,3つの新しい高速アルゴリズムと実装を提案する。
論文 参考訳(メタデータ) (2024-08-20T11:24:30Z) - Solving QUBO on the Loihi 2 Neuromorphic Processor [36.40764406612833]
本稿では,Intel Loihi 2 のニューロモルフィックプロセッサ上での擬似非拘束バイナリ最適化問題の解法について述べる。
予備的な結果から,提案手法はCPU上で動作している2つのベースラインソルバに比べて,最大1ミリ秒,最大37倍のエネルギー効率で実現可能な解を生成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T10:07:43Z) - PIM-Opt: Demystifying Distributed Optimization Algorithms on a Real-World Processing-In-Memory System [21.09681871279162]
大規模データセットに対するモダン機械学習(ML)トレーニングは、時間を要する作業量である。
最適化アルゴリズムであるGradient Descent (SGD) は、その効率性、単純さ、一般化性能に頼っている。
プロセッサ中心のアーキテクチャは、MLトレーニングワークロードの実行中に低パフォーマンスと高エネルギー消費に悩まされる。
Processing-In-Memory(PIM)は、データ移動のボトルネックを軽減するための有望なソリューションである。
論文 参考訳(メタデータ) (2024-04-10T17:00:04Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - MAPLE: Microprocessor A Priori for Latency Estimation [81.91509153539566]
現代のディープニューラルネットワークは、低レイテンシとエネルギー消費を示しながら最先端の精度を示す必要がある。
評価されたアーキテクチャのレイテンシの測定は、NASプロセスにかなりの時間を加えます。
転送学習やドメイン適応に依存しない推定用マイクロプロセッサAプライオリティを提案する。
論文 参考訳(メタデータ) (2021-11-30T03:52:15Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Optimizing Deep Learning Recommender Systems' Training On CPU Cluster
Architectures [56.69373580921888]
クラウドコンピューティングセンターのAIサイクルの大部分を占めるRecommender Systemsに注目します。
HPC用に調整された最新のCPUハードウェアとソフトウェア上で動作可能にすることで、パフォーマンスの2桁以上の改善を達成できます。
論文 参考訳(メタデータ) (2020-05-10T14:40:16Z) - Heterogeneous CPU+GPU Stochastic Gradient Descent Algorithms [1.3249453757295084]
ヘテロジニアスCPU+GPUアーキテクチャの深層学習のためのトレーニングアルゴリズムについて検討する。
私たちの2倍の目標 -- 収束率と資源利用を同時に最大化する -- は、この問題を難しくします。
これらのアルゴリズムの実装は,複数の実データセットよりも高速な収束と資源利用の両立を実現していることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。