論文の概要: BrainScaleS Large Scale Spike Communication using Extoll
- arxiv url: http://arxiv.org/abs/2111.15296v2
- Date: Tue, 14 Dec 2021 13:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 07:09:00.910379
- Title: BrainScaleS Large Scale Spike Communication using Extoll
- Title(参考訳): Extollを用いたBrainScaleS大規模スパイク通信
- Authors: Tobias Thommes, Niels Buwen, Andreas Gr\"ubl, Eric M\"uller, Ulrich
Br\"uning, Johannes Schemmel
- Abstract要約: BrainScaleS Neuromorphic Computing Systemは現在、Gigabit-Ethernetネットワーク技術を介して計算クラスタに接続されている。
これは、ニューロンネットワークが少なくとも1つのウェハモジュールをカバーする、現在使われている実験モードに便利である。
例えば、フルサイズの皮質微小回路モデルのような、より大きなサイズのネットワークをモデル化する場合、ウェーハモジュールをまたいで大きなネットワークにニューロンを接続することを考える必要がある。
これは、高帯域幅と低レイテンシを提供するExtollネットワーク技術と、低オーバーヘッドパケットプロトコルフォーマットを使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The BrainScaleS Neuromorphic Computing System is currently connected to a
compute cluster via Gigabit-Ethernet network technology. This is convenient for
the currently used experiment mode, where neuronal networks cover at most one
wafer module. When modelling networks of larger size, as for example a full
sized cortical microcircuit model, one has to think about connecting neurons
across wafer modules to larger networks. This can be done, using the Extoll
networking technology, which provides high bandwidth and low latencies, as well
as a low overhead packet protocol format.
- Abstract(参考訳): BrainScaleS Neuromorphic Computing Systemは現在、Gigabit-Ethernetネットワーク技術を介して計算クラスタに接続されている。
これは、神経ネットワークが最大1つのウェハモジュールをカバーする現在使われている実験モードに便利である。
例えば、フルサイズの皮質微小回路モデルのように、より大きなサイズのネットワークをモデル化する場合、ウェーハモジュールをまたいで大きなネットワークにニューロンを接続することを考える必要がある。
これは、高帯域幅と低レイテンシを提供するextollネットワーク技術と低オーバーヘッドパケットプロトコルフォーマットを使用することで実現可能だ。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Scalable Network Emulation on Analog Neuromorphic Hardware [3.1934373544259813]
本稿では,BrainScaleS-2アクセラレーション型ニューロモルフィックプラットフォームのための新しいソフトウェア機能を提案する。
大規模なスパイクニューラルネットワークの分割エミュレーションを容易にする。
単チップBrainScaleS-2システムの物理的サイズ制約を超える2つのディープスパイクニューラルネットワークモデルのトレーニングを実演する。
論文 参考訳(メタデータ) (2024-01-30T09:27:05Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - On Optimizing the Communication of Model Parallelism [74.15423270435949]
大規模モデル並列ディープラーニング(DL)における新しい重要なコミュニケーションパターンについて検討する。
クロスメッシュリシャーディングでは、シャードテンソルをソースデバイスメッシュから宛先デバイスメッシュに送信する必要がある。
本稿では、効率的な放送ベースの通信システムと「重複しやすい」パイプラインスケジュールという、クロスメシュ・リシャーディングに対処するための2つのコントリビューションを提案する。
論文 参考訳(メタデータ) (2022-11-10T03:56:48Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Demonstrating BrainScaleS-2 Inter-Chip Pulse-Communication using EXTOLL [0.0]
BrainScaleS-2は、Gigabit-network技術を介して計算クラスタに接続された複数のシングルチップ構成で構成されている。
これらの接続をEXTOLLネットワーク技術を用いてBSS-2に実装する。
これにより、高帯域幅と低レイテンシ、高メッセージレートが提供される。
論文 参考訳(メタデータ) (2022-02-24T14:23:54Z) - Communication-Efficient Separable Neural Network for Distributed
Inference on Edge Devices [2.28438857884398]
本稿では,分散推論のためのニューラルネットワークを分離するために,モデル並列性を利用する新しい手法を提案する。
デバイスの適切な仕様とモデルの構成の下で、エッジクラスタ上の大規模ニューラルネットワークの推論が分散し、加速可能であることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-03T19:30:28Z) - A Photonic-Circuits-Inspired Compact Network: Toward Real-Time Wireless
Signal Classification at the Edge [3.841495731646297]
大規模な機械学習モデルでは、レイテンシに敏感な下流タスクのためにエッジデバイス上で実装することが難しくなる可能性がある。
無線通信システムでは、ミリ秒以下のスケールでのMLデータ処理により、リアルタイムなネットワーク監視が可能となる。
本稿では,フォトニック・ハードウエアにインスパイアされたリカレントニューラルネットワークモデルからなる,コンパクトなディープ・ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-25T19:55:41Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Neural Network Compression Framework for fast model inference [59.65531492759006]
我々は、ニューラルネットワーク圧縮フレームワーク(NNCF)と呼ばれる、微調整によるニューラルネットワーク圧縮のための新しいフレームワークを提案する。
様々なネットワーク圧縮手法の最近の進歩を活用し、空間性、量子化、双項化などのいくつかの実装を行っている。
フレームワークは、トレーニングサンプル内に提供され、あるいは既存のトレーニングコードにシームレスに統合可能なスタンドアロンパッケージとして使用することができる。
論文 参考訳(メタデータ) (2020-02-20T11:24:01Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。