論文の概要: TNNGen: Automated Design of Neuromorphic Sensory Processing Units for Time-Series Clustering
- arxiv url: http://arxiv.org/abs/2412.17977v1
- Date: Mon, 23 Dec 2024 20:46:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:56:46.036386
- Title: TNNGen: Automated Design of Neuromorphic Sensory Processing Units for Time-Series Clustering
- Title(参考訳): TNNGen: 時系列クラスタリングのためのニューロモルフィックセンサ処理ユニットの自動設計
- Authors: Prabhu Vellaisamy, Harideep Nair, Vamsikrishna Ratnakaram, Dhruv Gupta, John Paul Shen,
- Abstract要約: 最近の研究で、エネルギー効率の高いアプリケーション固有のTNNのためのマイクロアーキテクチャフレームワークとカスタムマクロスイートが提案されている。
TNN用のオープンソースの関数型シミュレーションフレームワークはありません。
本稿では、PyTorchソフトウェアモデルからポストネットリストまで、TNNの自動設計に向けた先駆的な取り組みであるTNNGenを紹介する。
- 参考スコア(独自算出の注目度): 2.1041384320978267
- License:
- Abstract: Temporal Neural Networks (TNNs), a special class of spiking neural networks, draw inspiration from the neocortex in utilizing spike-timings for information processing. Recent works proposed a microarchitecture framework and custom macro suite for designing highly energy-efficient application-specific TNNs. These recent works rely on manual hardware design, a labor-intensive and time-consuming process. Further, there is no open-source functional simulation framework for TNNs. This paper introduces TNNGen, a pioneering effort towards the automated design of TNNs from PyTorch software models to post-layout netlists. TNNGen comprises a novel PyTorch functional simulator (for TNN modeling and application exploration) coupled with a Python-based hardware generator (for PyTorch-to-RTL and RTL-to-Layout conversions). Seven representative TNN designs for time-series signal clustering across diverse sensory modalities are simulated and their post-layout hardware complexity and design runtimes are assessed to demonstrate the effectiveness of TNNGen. We also highlight TNNGen's ability to accurately forecast silicon metrics without running hardware process flow.
- Abstract(参考訳): スパイクニューラルネットワークの特殊クラスであるTNN(Temporal Neural Networks)は、スパイクタイミングを利用して情報処理を行う新皮質からインスピレーションを得ている。
最近の研究で、高エネルギー効率なアプリケーション固有のTNNを設計するためのマイクロアーキテクチャフレームワークとカスタムマクロスイートが提案されている。
これらの最近の研究は、労働集約的で時間を要する、手動のハードウェア設計に依存している。
さらに、TNNのためのオープンソースの関数型シミュレーションフレームワークは存在しない。
本稿では,PyTorch ソフトウェアモデルからポストレイアウトネットリストまで,TNN の自動設計に向けた先駆的な取り組みである TNNGen を紹介する。
TNNGenは、Pythonベースのハードウェアジェネレータ(PyTorch-to-RTLおよびRTL-to-Layout変換用)と組み合わせた、新しいPyTorch関数シミュレータ(TNNモデリングとアプリケーション探索用)を備えている。
時系列信号クラスタリングのための7つの代表的なTNN設計をシミュレートし、その遅延後のハードウェアの複雑さと設計ランタイムを評価し、TNNGenの有効性を実証する。
また、ハードウェアプロセスフローを実行せずにシリコンメトリクスを正確に予測するTNNGenの機能についても強調する。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - SNNAX -- Spiking Neural Networks in JAX [0.8321953606016751]
スパイキングニューラルネットワーク(SNN)シミュレータは、生物学的にインスパイアされたモデルとニューロモルフィックなハードウェアアーキテクチャをプロトタイプするために必要なツールである。
我々は、PyTorchのような直感性とJAXのような実行速度で、このようなモデルをシミュレートし、訓練するためのJAXベースのフレームワークSNNAXを提案する。
論文 参考訳(メタデータ) (2024-09-04T16:14:14Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Sub-mW Neuromorphic SNN audio processing applications with Rockpool and
Xylo [0.0]
スパイキングニューラルネットワーク(SNN)は、時間信号処理のための効率的な計算機構を提供する。
SNNは歴史的に構成が困難であり、任意のタスクの解を見つけるための一般的な方法が欠如している。
ここでは、任意の時間信号処理アプリケーションをサブmW SNN推論ハードウェアに設計、訓練、デプロイするための便利な高レベルパイプラインを示す。
論文 参考訳(メタデータ) (2022-08-27T11:50:32Z) - Towards a Design Framework for TNN-Based Neuromorphic Sensory Processing
Units [2.419276285404291]
テンポラルニューラルネットワーク(TNN)は、高エネルギー効率で脳のような感覚処理を示すニューラルネットワークをスパイクしている。
本研究は、効率的なアプリケーション固有のTNNベースのニューロモーフィックセンサ処理ユニット(NSPU)を設計するためのカスタムデザインフレームワークの開発に向けて、現在進行中の研究成果を示す。
論文 参考訳(メタデータ) (2022-05-27T21:51:05Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - A Microarchitecture Implementation Framework for Online Learning with
Temporal Neural Networks [1.4530235554268331]
時間的ニューラルネットワーク(TNN)は、情報を表現し処理するためのリソースとして時間を使用するニューラルネットワークをスパイクしている。
本研究では,標準CMOSを用いたTNN実装のためのマイクロアーキテクチャフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-27T15:59:54Z) - A Temporal Neural Network Architecture for Online Learning [0.6091702876917281]
時間的ニューラルネットワーク(TNN)は、相対スパイク時間として符号化された情報を通信し、処理する。
TNNアーキテクチャを提案し、概念実証として、オンライン教師付き分類のより大きな文脈でTNNの動作を示す。
論文 参考訳(メタデータ) (2020-11-27T17:15:29Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。