論文の概要: An End-to-End DNN Inference Framework for the SpiNNaker2 Neuromorphic MPSoC
- arxiv url: http://arxiv.org/abs/2507.13736v1
- Date: Fri, 18 Jul 2025 08:32:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.226475
- Title: An End-to-End DNN Inference Framework for the SpiNNaker2 Neuromorphic MPSoC
- Title(参考訳): SpiNNaker2ニューロモルフィックMPSoCのためのエンドツーエンドDNN推論フレームワーク
- Authors: Matthias Jobst, Tim Langer, Chen Liu, Mehmet Alici, Hector A. Gonzalez, Christian Mayr,
- Abstract要約: 本研究は,OctopuSchedulerの拡張として,多層DNNスケジューリングフレームワークを提案する。
PyTorchモデルから単一のSpinNNaker2チップでの推論まで、エンドツーエンドのフローを提供する。
- 参考スコア(独自算出の注目度): 2.5950381809803287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a multi-layer DNN scheduling framework as an extension of OctopuScheduler, providing an end-to-end flow from PyTorch models to inference on a single SpiNNaker2 chip. Together with a front-end comprised of quantization and lowering steps, the proposed framework enables the edge-based execution of large and complex DNNs up to transformer scale using the neuromorphic platform SpiNNaker2.
- Abstract(参考訳): この研究は、OctopuSchedulerの拡張として多層DNNスケジューリングフレームワークを提示し、PyTorchモデルから単一のSpinNNaker2チップへのエンドツーエンドフローを提供する。
量子化と下降のステップからなるフロントエンドとともに、提案フレームワークはニューロモルフィックプラットフォームSpiNNaker2を用いて、大規模で複雑なDNNをトランスフォーマースケールまでエッジベースで実行可能にする。
関連論文リスト
- Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Spike-driven Transformer V2: Meta Spiking Neural Network Architecture Inspiring the Design of Next-generation Neuromorphic Chips [37.305308839310136]
ニューロモルフィックコンピューティングは、ニューロモルフィックチップ上でスパイキングニューラルネットワーク(SNN)を利用する。
CNNベースのSNNは、現在のニューロモルフィックコンピューティングの主流である。
特にトランスフォーマーベースのSNN向けには、ニューロモルフィックチップは設計されていない。
論文 参考訳(メタデータ) (2024-02-15T13:26:18Z) - SparseSpikformer: A Co-Design Framework for Token and Weight Pruning in
Spiking Transformer [12.717450255837178]
スパイキングニューラルネットワーク(SNN)は低消費電力と高エネルギー効率の利点がある。
最も先進的なSNNであるSpikformerは、Transformerの自己保持モジュールとSNNを組み合わせて、優れたパフォーマンスを実現している。
本稿では,SparseSpikformerについて紹介する。SparseSpikformerはトークンとウェイトプルーニング技術を用いてSparseSpikformerのスパーシ性を実現するための共同設計フレームワークである。
論文 参考訳(メタデータ) (2023-11-15T09:22:52Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z) - UCNN: A Convolutional Strategy on Unstructured Mesh [1.871055320062469]
流体力学の機械学習では、フルコネクテッドニューラルネットワーク(FNN)はモデリングのローカル機能のみを使用します。
非構造畳み込みニューラルネットワーク(UCNN)が提案され、重み関数を通じて近隣ノードの特徴を集約し、効果的に活用する。
その結果,UCNNはモデリング過程においてより正確であることが示唆された。
論文 参考訳(メタデータ) (2021-01-12T10:48:25Z) - A scalable and efficient convolutional neural network accelerator using
HLS for a System on Chip design [0.0]
提示されたCNNAは、ハードウェアアクセラレーションに高レベル合成(HLS)とSystemCを使用するスケーラブルなアーキテクチャを備えている。
Pythonからエクスポートされた畳み込みニューラルネットワークを高速化し、畳み込み、最大プール、完全に接続されたレイヤの組み合わせをサポートする。
平均消費電力は2.63Wで、効率は6.0GOPS/Wである。
論文 参考訳(メタデータ) (2020-04-27T18:12:22Z) - Spiking Inception Module for Multi-layer Unsupervised Spiking Neural
Networks [2.9822184411723645]
スパイキングニューラルネットワーク(SNN)は、超高エネルギーのハードウェアを製造する可能性から注目を集めている。
Spike-Timing-Dependent Plasticity (STDP) に基づく競合学習は、教師なしSNNを訓練する一般的な方法である。
我々は,ニューラルネットワーク(ANN)文学におけるインセプション・モジュールにインスパイアされたスパイキング・インセプション(Sp-Inception)モジュールを提案する。
このモジュールはSTDPベースの競争学習を通じてトレーニングされ、学習能力、学習効率、堅牢性においてベースラインモジュールを上回っている。
論文 参考訳(メタデータ) (2020-01-29T05:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。