論文の概要: A hardware-software co-design approach to minimize the use of memory
resources in multi-core neuromorphic processors
- arxiv url: http://arxiv.org/abs/2203.00655v1
- Date: Tue, 1 Mar 2022 17:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 10:14:49.051874
- Title: A hardware-software co-design approach to minimize the use of memory
resources in multi-core neuromorphic processors
- Title(参考訳): マルチコアニューロモーフィックプロセッサにおけるメモリ資源の利用を最小化するハードウェア・ソフトウェア共同設計手法
- Authors: Vanessa R. C. Leite, Zhe Su, Adrian M. Whatley, Giacomo Indiveri
- Abstract要約: マルチコアニューロモーフィックプロセッサにおけるメモリ資源の使用を最小化するハードウェア・ソフトウェア共同設計手法を提案する。
本手法は,小型ネットワークに最適化された新しいルーティング方式の設計と,アプリケーション固有の新規なニューロモルフィックチップの設計ガイドラインを提供する。
- 参考スコア(独自算出の注目度): 5.391889175209394
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Both in electronics and biology, physical implementations of neural networks
have severe energy and memory constraints. We propose a hardware-software
co-design approach for minimizing the use of memory resources in multi-core
neuromorphic processors, by taking inspiration from biological neural networks.
We use this approach to design new routing schemes optimized for small-world
networks and to provide guidelines for designing novel application-specific
multi-core neuromorphic chips. Starting from the hierarchical routing scheme
proposed, we present a hardware-aware placement algorithm that optimizes the
allocation of resources for arbitrary network models. We validate the algorithm
with a canonical small-world network and present preliminary results for other
networks derived from it.
- Abstract(参考訳): エレクトロニクスと生物学の両方において、ニューラルネットワークの物理的実装は厳しいエネルギーとメモリの制約がある。
生体神経ネットワークからインスピレーションを得て,マルチコア・ニューロモーフィックプロセッサにおけるメモリ資源の使用を最小化するためのハードウェア・ソフトウェア共同設計手法を提案する。
本手法は,小型ネットワークに最適化された新しいルーティング方式の設計と,新しいアプリケーション固有のマルチコアニューロモルフィックチップの設計ガイドラインを提供する。
提案する階層型ルーティング方式から,任意のネットワークモデルに対してリソースの割り当てを最適化するハードウェア対応配置アルゴリズムを提案する。
本稿では,このアルゴリズムを小世界標準ネットワークを用いて検証し,それに由来する他のネットワークに対する予備結果を示す。
関連論文リスト
- Core Placement Optimization of Many-core Brain-Inspired Near-Storage Systems for Spiking Neural Network Training [21.75341703605822]
オフポリティクス決定論的アクター批判に基づくSNNトレーニング多コアデプロイメント最適化手法を提案する。
我々は,マルチコアニアメモリコンピューティングアーキテクチャにおけるSNNモデルの配置最適化を実現するために,ニアエンドポリシー最適化を通じてポリシネットワークのパラメータを更新する。
本手法は,コア間の不均一な計算やストレージ負荷,ローカル通信ホットスポットの形成といった問題を克服する。
論文 参考訳(メタデータ) (2024-11-29T01:46:30Z) - Energy-Aware FPGA Implementation of Spiking Neural Network with LIF Neurons [0.5243460995467893]
スパイキングニューラルネットワーク(SNN)は、TinyMLの最先端ソリューションとして際立っている。
本稿では,第1次Leaky Integrate-and-Fire(LIF)ニューロンモデルに基づく新しいSNNアーキテクチャを提案する。
ハードウェアフレンドリーなLIF設計も提案され、Xilinx Artix-7 FPGA上で実装されている。
論文 参考訳(メタデータ) (2024-11-03T16:42:10Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Recent Advances in Scalable Energy-Efficient and Trustworthy Spiking
Neural networks: from Algorithms to Technology [11.479629320025673]
スパイキングニューラルネットワーク(SNN)は、幅広い信号処理アプリケーションのために、ディープニューラルネットワークの魅力的な代替品となっている。
我々は、低レイテンシとエネルギー効率のSNNを効率的に訓練し、拡張するためのアルゴリズムと最適化の進歩について述べる。
デプロイ可能なSNNシステム構築における研究の今後の可能性について論じる。
論文 参考訳(メタデータ) (2023-12-02T19:47:00Z) - Cortical-inspired placement and routing: minimizing the memory resources
in multi-core neuromorphic processors [5.391889175209394]
本稿では,生物学的ニューラルネットワークにインスパイアされたネットワーク設計手法を提案する。
我々は、この手法を用いて、小世界のネットワークに最適化された新しいルーティングスキームを設計する。
本稿では,小世界のネットワークモデルにおける資源配分を最適化するハードウェア対応配置アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-29T13:28:02Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Real-time Multi-Task Diffractive Deep Neural Networks via
Hardware-Software Co-design [1.6066483376871004]
本研究は,d$2$nnsでロバストかつノイズ耐性のあるマルチタスク学習を実現する,新しいハードウェアソフトウェア共同設計手法を提案する。
私たちの実験結果は、汎用性とハードウェア効率の大幅な改善を示し、提案されたマルチタスクD$2$NNアーキテクチャの堅牢性を実証します。
論文 参考訳(メタデータ) (2020-12-16T12:29:54Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。