論文の概要: Efficient Synaptic Delay Implementation in Digital Event-Driven AI Accelerators
- arxiv url: http://arxiv.org/abs/2501.13610v1
- Date: Thu, 23 Jan 2025 12:30:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:45.010111
- Title: Efficient Synaptic Delay Implementation in Digital Event-Driven AI Accelerators
- Title(参考訳): ディジタルイベント駆動型AI加速器における効率的なシナプス遅延実装
- Authors: Roy Meijer, Paul Detterer, Amirreza Yousefzadeh, Alberto Patino-Saucedo, Guanghzi Tang, Kanishkan Vadivel, Yinfu Xu, Manil-Dev Gomony, Federico Corradi, Bernabe Linares-Barranco, Manolis Sifalakis,
- Abstract要約: 本稿では,デジタルニューロモルフィックアクセラレータ上でのシナプス遅延をサポートするハードウェア構造であるShared Circular Delay Queue (SCDQ)を紹介する。
分析とハードウェアの結果から、現在の一般的なアプローチよりもメモリのスケールが優れており、アルゴリズムとハードウェアの共最適化にはさらに耐え難いことが分かる。
- 参考スコア(独自算出の注目度): 1.260842513389711
- License:
- Abstract: Synaptic delay parameterization of neural network models have remained largely unexplored but recent literature has been showing promising results, suggesting the delay parameterized models are simpler, smaller, sparser, and thus more energy efficient than similar performing (e.g. task accuracy) non-delay parameterized ones. We introduce Shared Circular Delay Queue (SCDQ), a novel hardware structure for supporting synaptic delays on digital neuromorphic accelerators. Our analysis and hardware results show that it scales better in terms of memory, than current commonly used approaches, and is more amortizable to algorithm-hardware co-optimizations, where in fact, memory scaling is modulated by model sparsity and not merely network size. Next to memory we also report performance on latency area and energy per inference.
- Abstract(参考訳): ニューラルネットワークモデルのシナプス遅延パラメータ化はほとんど探索されていないが、最近の文献は有望な結果を示しており、遅延パラメータ化モデルはより単純で小さく、スペーサーであり、従って、類似の(例えばタスク精度)非遅延パラメータ化モデルよりもエネルギー効率が高いことを示唆している。
本稿では,デジタルニューロモルフィックアクセラレータ上でのシナプス遅延をサポートするハードウェア構造であるShared Circular Delay Queue (SCDQ)を紹介する。
解析とハードウェアの結果から、現在の一般的なアプローチよりもメモリのスケールが良く、アルゴリズムのハードウェアによる協調最適化よりも、メモリのスケーリングがモデル空間によって調整され、単にネットワークサイズではないことが分かる。
メモリの次は、遅延領域と推論毎のエネルギのパフォーマンスも報告します。
関連論文リスト
- Reduced Order Modeling with Shallow Recurrent Decoder Networks [5.686433280542813]
SHRED-ROMは、数値的に不安定な逆近似を符号化する堅牢な復号のみの戦略である。
SHRED-ROMは、固定センサや移動センサの限られた値から、新しいパラメータ値の状態を正確に再構成する。
論文 参考訳(メタデータ) (2025-02-15T23:41:31Z) - Accelerating Linear Recurrent Neural Networks for the Edge with Unstructured Sparsity [39.483346492111515]
線形リカレントニューラルネットワークは、推論中に一定のメモリ使用量と時間毎の時間を含む強力な長距離シーケンスモデリングを可能にする。
非構造化空間は、互換性のあるハードウェアプラットフォームによって加速されるときに、計算とメモリの要求を大幅に削減できる魅力的なソリューションを提供する。
非常に疎い線形RNNは、高密度ベースラインよりも高い効率と性能のトレードオフを一貫して達成している。
論文 参考訳(メタデータ) (2025-02-03T13:09:21Z) - Efficient Event-based Delay Learning in Spiking Neural Networks [0.1350479308585481]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わるエネルギー効率の高い代替手段として注目を集めている。
本研究では,EventPropProp形式に基づくSNNのための新しいイベントベーストレーニング手法を提案する。
提案手法は,現在最先端の遅延学習手法のメモリの半分以下を用いており,最大26倍高速であることを示す。
論文 参考訳(メタデータ) (2025-01-13T13:44:34Z) - DelGrad: Exact event-based gradients in spiking networks for training delays and weights [1.5226147562426895]
スパイキングニューラルネットワーク(SNN)は本質的には情報表現と処理のための信号のタイミングに依存している。
我々は,シナプス重みと遅延の両方について,正確な損失勾配を計算するイベントベース手法であるDelGradを提案する。
ノイズの多い混合信号ハードウェア上でSNNに遅延を追加する際のメモリ効率と精度の利点を実験的に示す。
論文 参考訳(メタデータ) (2024-04-30T00:02:34Z) - Hardware-aware training of models with synaptic delays for digital event-driven neuromorphic processors [1.3415700412919966]
本稿では,高パフォーマンススパイキングニューラルネットワークモデル(SNN)を用いた,ディジタルニューロモルフィックハードウェアのトレーニングと展開のためのフレームワークを提案する。
トレーニングは、ネットワークサイズの関数として、シナプスウェイト精度やコア毎のパラメータの総数など、両方のプラットフォーム制約を考慮に入れている。
トレーニングされたモデルを、Intel LoihiとImec Senecaの2つのニューロモルフィックデジタルハードウェアプラットフォームで評価した。
論文 参考訳(メタデータ) (2024-04-16T14:22:58Z) - Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Highly Efficient Salient Object Detection with 100K Parameters [137.74898755102387]
そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-12T07:00:46Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。