論文の概要: hxtorch: PyTorch for BrainScaleS-2 -- Perceptrons on Analog Neuromorphic
Hardware
- arxiv url: http://arxiv.org/abs/2006.13138v3
- Date: Wed, 1 Jul 2020 08:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:25:18.058719
- Title: hxtorch: PyTorch for BrainScaleS-2 -- Perceptrons on Analog Neuromorphic
Hardware
- Title(参考訳): hxtorch: PyTorch for BrainScaleS-2 -- アナログニューロモルフィックハードウェアの知覚
- Authors: Philipp Spilger, Eric M\"uller, Arne Emmel, Aron Leibfried, Christian
Mauch, Christian Pehle, Johannes Weis, Oliver Breitwieser, Sebastian
Billaudelle, Sebastian Schmitt, Timo C. Wunderlich, Yannik Stradmann,
Johannes Schemmel
- Abstract要約: 本稿では,BrainScaleS-2アナログニューロモルフィックハードウェアシステムを推論アクセラレータとして使用するためのソフトウェアを提案する。
ベクトル行列乗算と畳み込みとそれに対応するソフトウェアベースのオートグレード機能に対するアクセラレータサポートを提供する。
導入したフレームワークの応用として,スマートフォンセンサデータを用いた日常生活活動の分類モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present software facilitating the usage of the BrainScaleS-2 analog
neuromorphic hardware system as an inference accelerator for artificial neural
networks. The accelerator hardware is transparently integrated into the PyTorch
machine learning framework using its extension interface. In particular, we
provide accelerator support for vector-matrix multiplications and convolutions;
corresponding software-based autograd functionality is provided for
hardware-in-the-loop training. Automatic partitioning of neural networks onto
one or multiple accelerator chips is supported. We analyze implementation
runtime overhead during training as well as inference, provide measurements for
existing setups and evaluate the results in terms of the accelerator hardware
design limitations. As an application of the introduced framework, we present a
model that classifies activities of daily living with smartphone sensor data.
- Abstract(参考訳): 本稿では,人工ニューラルネットワークの推論アクセラレータとしてBrainScaleS-2アナログニューロモルフィックハードウェアシステムを利用するソフトウェアを提案する。
アクセラレータハードウェアは、拡張インターフェースを使用して、PyTorch機械学習フレームワークに透過的に統合されている。
特に,ベクトル行列乗算と畳み込みのアクセラレータサポートを提供し,それに対応するソフトウェアベースのオートグレード機能は,ループ内ハードウェアトレーニングのために提供される。
ニューラルネットワークの1つまたは複数のアクセラレータチップへの自動パーティショニングがサポートされている。
我々は、トレーニング中の実行時のオーバーヘッドと推論を分析し、既存の設定を計測し、アクセラレーションハードウェア設計の限界の観点から結果を評価する。
導入したフレームワークの応用として,スマートフォンセンサデータを用いた日常生活活動の分類モデルを提案する。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - hxtorch.snn: Machine-learning-inspired Spiking Neural Network Modeling
on BrainScaleS-2 [0.0]
hxtorch.snnは、BrainScaleS-2ニューロモーフィックシステムの機械学習ベースのモデリングフレームワークである。
hxtorch.snnは、PyTorch内のスパイキングニューラルネットワークのハードウェア・イン・ループトレーニングを可能にする。
我々は,Yin-Yangデータセットを用いた分類タスクにおけるhxtorch.snnの機能を示す。
論文 参考訳(メタデータ) (2022-12-23T08:56:44Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - A Scalable Approach to Modeling on Accelerated Neuromorphic Hardware [0.0]
この研究は、物理モデリングに基づくハイブリッドアクセラレーション型ニューロモルフィックハードウェアアーキテクチャであるBrainScaleS-2システムのソフトウェア側面を示す。
本稿では,BrainScaleS-2オペレーティングシステム(実験ワークフロー,API階層化,ソフトウェア設計,プラットフォーム操作)のキーとなる側面を紹介する。
焦点は、マルチコンポーネントニューロン、ハードウェア・イン・ザ・ループトレーニングのための高速な再構成、組み込みプロセッサのアプリケーション、非スパイキング操作モード、インタラクティブなプラットフォームアクセス、持続可能なハードウェア/ソフトウェアの共同開発など、新しいシステムとソフトウェア機能である。
論文 参考訳(メタデータ) (2022-03-21T16:30:18Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - DFSynthesizer: Dataflow-based Synthesis of Spiking Neural Networks to
Neuromorphic Hardware [4.273223677453178]
Spiking Neural Networks(SNN)は、イベント駆動型アクティベーションとバイオインスパイアされた学習アルゴリズムを使用する、新たな計算モデルである。
DF Synthesizerは、SNNベースの機械学習プログラムをニューロモルフィックハードウェアに合成するためのエンドツーエンドフレームワークである。
論文 参考訳(メタデータ) (2021-08-04T12:49:37Z) - Surrogate gradients for analog neuromorphic computing [2.6475944316982942]
デバイスミスマッチに対する自己修正学習は,視覚と音声のベンチマークにおいて,競争力のあるネットワーク性能をもたらすことを示す。
我々の研究は、アナログニューロモルフィックハードウェア上での低エネルギースパイクネットワーク処理のための新しいベンチマークをいくつか設定する。
論文 参考訳(メタデータ) (2020-06-12T14:45:12Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - DNN+NeuroSim V2.0: An End-to-End Benchmarking Framework for
Compute-in-Memory Accelerators for On-chip Training [4.555081317066413]
NeuroSimは、ディープニューラルネットワークのための計算メモリ(CIM)アクセラレータをベンチマークするための統合フレームワークである。
pythonラッパーはNeuroSimと一般的な機械学習プラットフォームであるPytorchとをインターフェースするために開発されている。
論文 参考訳(メタデータ) (2020-03-13T20:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。