論文の概要: Demonstrating BrainScaleS-2 Inter-Chip Pulse-Communication using EXTOLL
- arxiv url: http://arxiv.org/abs/2202.12122v2
- Date: Thu, 3 Mar 2022 16:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 01:46:00.111347
- Title: Demonstrating BrainScaleS-2 Inter-Chip Pulse-Communication using EXTOLL
- Title(参考訳): EXTOLLを用いたBrainScaleS-2チップ間パルス通信の実証
- Authors: Tobias Thommes (1), Sven Bordukat (1), Andreas Gr\"ubl (1), Vitali
Karasenko (1), Eric M\"uller (1), Johannes Schemmel (1) ((1)
Kirchhoff-Institute for Physics, Heidelberg, Germany)
- Abstract要約: BrainScaleS-2は、Gigabit-network技術を介して計算クラスタに接続された複数のシングルチップ構成で構成されている。
これらの接続をEXTOLLネットワーク技術を用いてBSS-2に実装する。
これにより、高帯域幅と低レイテンシ、高メッセージレートが提供される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The BrainScaleS-2 (BSS-2) Neuromorphic Computing System currently consists of
multiple single-chip setups, which are connected to a compute cluster via
Gigabit-Ethernet network technology. This is convenient for small experiments,
where the neural networks fit into a single chip. When modeling networks of
larger size, neurons have to be connected across chip boundaries. We implement
these connections for BSS-2 using the EXTOLL networking technology. This
provides high bandwidths and low latencies, as well as high message rates.
Here, we describe the targeted pulse-routing implementation and required
extensions to the BSS-2 software stack. We as well demonstrate feed-forward
pulse-routing on BSS-2 using a scaled-down version without temporal merging.
- Abstract(参考訳): BrainScaleS-2 (BSS-2) Neuromorphic Computing System は現在、複数のシングルチップのセットアップで構成されており、Gigabit-Ethernetネットワーク技術を介して計算クラスタに接続されている。
これは、ニューラルネットワークが1つのチップに収まる小さな実験に便利である。
大きなネットワークをモデル化する場合、ニューロンはチップの境界を越えて接続する必要がある。
これらの接続をEXTOLLネットワーク技術を用いてBSS-2に実装する。
これは高い帯域幅と低いレイテンシと高いメッセージレートを提供する。
本稿では,ターゲットとなるパルスルーティングの実装と,BSS-2ソフトウェアスタックの拡張について述べる。
また、時間的マージを伴わないスケールダウンバージョンを用いて、BSS-2のフィードフォワードパルスローイングを実証した。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Scalable Network Emulation on Analog Neuromorphic Hardware [3.1934373544259813]
本稿では,BrainScaleS-2アクセラレーション型ニューロモルフィックプラットフォームのための新しいソフトウェア機能を提案する。
大規模なスパイクニューラルネットワークの分割エミュレーションを容易にする。
単チップBrainScaleS-2システムの物理的サイズ制約を超える2つのディープスパイクニューラルネットワークモデルのトレーニングを実演する。
論文 参考訳(メタデータ) (2024-01-30T09:27:05Z) - BiFSMNv2: Pushing Binary Neural Networks for Keyword Spotting to
Real-Network Performance [54.214426436283134]
Deep-FSMNのようなディープニューラルネットワークはキーワードスポッティング(KWS)アプリケーションのために広く研究されている。
我々は、KWS、すなわちBiFSMNv2のための強力で効率的なバイナリニューラルネットワークを提示し、それを実ネットワーク精度のパフォーマンスにプッシュする。
小型アーキテクチャと最適化されたハードウェアカーネルの利点により、BiFSMNv2は25.1倍のスピードアップと20.2倍のストレージ節約を実現できる。
論文 参考訳(メタデータ) (2022-11-13T18:31:45Z) - Bandwidth-efficient distributed neural network architectures with
application to body sensor networks [73.02174868813475]
本稿では,分散ニューラルネットワークアーキテクチャを設計するための概念設計手法について述べる。
提案手法により,損失を最小限に抑えつつ,最大20倍の帯域幅削減が可能となることを示す。
本稿では,ウェアラブル脳-コンピュータインタフェースに焦点をあてるが,他のセンサネットワークアプリケーションにも適用できる。
論文 参考訳(メタデータ) (2022-10-14T12:35:32Z) - BiFSMN: Binary Neural Network for Keyword Spotting [47.46397208920726]
BiFSMNは、KWSのための正確かつ極効率のバイナリニューラルネットワークである。
実世界のエッジハードウェアにおいて,BiFSMNは22.3倍の高速化と15.5倍のストレージ節約を実現可能であることを示す。
論文 参考訳(メタデータ) (2022-02-14T05:16:53Z) - BrainScaleS Large Scale Spike Communication using Extoll [0.0]
BrainScaleS Neuromorphic Computing Systemは現在、Gigabit-Ethernetネットワーク技術を介して計算クラスタに接続されている。
これは、ニューロンネットワークが少なくとも1つのウェハモジュールをカバーする、現在使われている実験モードに便利である。
例えば、フルサイズの皮質微小回路モデルのような、より大きなサイズのネットワークをモデル化する場合、ウェーハモジュールをまたいで大きなネットワークにニューロンを接続することを考える必要がある。
これは、高帯域幅と低レイテンシを提供するExtollネットワーク技術と、低オーバーヘッドパケットプロトコルフォーマットを使用することができる。
論文 参考訳(メタデータ) (2021-11-30T11:19:39Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Extending BrainScaleS OS for BrainScaleS-2 [0.0]
我々はBrainScaleS-2アーキテクチャのために導入されたソフトウェア拡張について紹介し、紹介する。
BrainScaleS OSはBrainScaleSアーキテクチャのユーザフレンドリーな操作のために設計されたソフトウェアスタックである。
論文 参考訳(メタデータ) (2020-03-30T18:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。