論文の概要: ElfCore: A 28nm Neural Processor Enabling Dynamic Structured Sparse Training and Online Self-Supervised Learning with Activity-Dependent Weight Update
- arxiv url: http://arxiv.org/abs/2512.21153v1
- Date: Wed, 24 Dec 2025 12:45:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.781496
- Title: ElfCore: A 28nm Neural Processor Enabling Dynamic Structured Sparse Training and Online Self-Supervised Learning with Activity-Dependent Weight Update
- Title(参考訳): ElfCore: 動的構造化スパーストレーニングとオンライン自己監督学習を実現する28nmニューラルプロセッサ
- Authors: Zhe Su, Giacomo Indiveri,
- Abstract要約: イベント駆動型センサ信号処理に適した28nmデジタルスパイクニューラルネットワークプロセッサElfCoreを提案する。
ElfCoreは,(1)ラベル付き入力を使わずに多層時間学習が可能なローカルオンライン自己教師型学習エンジン,(2)高精度スパース学習をサポートする動的構造化スパース学習エンジン,(3)入力アクティビティとネットワークダイナミクスのみに基づいて重みを選択的に更新する活動依存スパースウェイト更新機構である。
- 参考スコア(独自算出の注目度): 4.35542279627635
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present ElfCore, a 28nm digital spiking neural network processor tailored for event-driven sensory signal processing. ElfCore is the first to efficiently integrate: (1) a local online self-supervised learning engine that enables multi-layer temporal learning without labeled inputs; (2) a dynamic structured sparse training engine that supports high-accuracy sparse-to-sparse learning; and (3) an activity-dependent sparse weight update mechanism that selectively updates weights based solely on input activity and network dynamics. Demonstrated on tasks including gesture recognition, speech, and biomedical signal processing, ElfCore outperforms state-of-the-art solutions with up to 16X lower power consumption, 3.8X reduced on-chip memory requirements, and 5.9X greater network capacity efficiency.
- Abstract(参考訳): 本稿では,イベント駆動型センサ信号処理に適した28nmディジタルスパイクニューラルネットワークプロセッサElfCoreを提案する。
ElfCoreは,(1)ラベル付き入力を使わずに多層時間学習が可能なローカルオンライン自己教師型学習エンジン,(2)高精度スパース学習をサポートする動的構造化スパース学習エンジン,(3)入力アクティビティとネットワークダイナミクスのみに基づいて重みを選択的に更新する活動依存スパースウェイト更新機構である。
ジェスチャー認識、音声、バイオメディカル信号処理などのタスクを実証し、ElfCoreは16倍の消費電力、3.8倍のオンチップメモリ要求、および5.9倍のネットワーク容量効率で最先端のソリューションより優れている。
関連論文リスト
- High-performance training and inference for deep equivariant interatomic potentials [0.0]
我々はPyTorch Ahead-of-Time Inductorコンパイラを機械学習の原子間ポテンシャルに適用した最初のエンドツーエンドインフラストラクチャを紹介する。
これらの進歩は、実用関連性のシステムサイズに関する分子動力学計算を最大18倍に高速化する。
論文 参考訳(メタデータ) (2025-04-22T17:47:01Z) - Analog Spiking Neuron in CMOS 28 nm Towards Large-Scale Neuromorphic Processors [0.8426358786287627]
本研究では,TSMCの28nmCMOS技術を用いた低消費電力Leaky Integrate- and-Fireニューロンの設計を提案する。
製造されたニューロンは1.61 fJ/スパイクを消費し、34$mu m2$の活性領域を占有し、最大スパイク周波数は250mVで300kHzである。
論文 参考訳(メタデータ) (2024-08-14T17:51:20Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Activity Sparsity Complements Weight Sparsity for Efficient RNN Inference [2.5148788595166205]
本研究では、繰り返しニューラルネットワークモデルにおいて、活動空間がパラメータ空間と乗算的に構成可能であることを示す。
私たちはPenn Treebank言語モデリングタスクで60ドル以下の難易度を維持しながら、最大20ドルまで計算の削減を実現しています。
論文 参考訳(メタデータ) (2023-11-13T08:18:44Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - A 28-nm Convolutional Neuromorphic Processor Enabling Online Learning
with Spike-Based Retinas [1.4425878137951236]
適応エッジコンピューティングとビジョンアプリケーションのための28nmイベント駆動CNN(eCNN)であるSPOONを提案する。
16.8-%のパワーと11.8-%のオーバヘッドしか持たないオンライン学習を、生物学的に証明可能な直接ランダムターゲットプロジェクション(DRTP)アルゴリズムで埋め込んでいる。
0.6Vでの313nJの分類あたりのエネルギーと95.3%(オンチップトレーニング)と97.5%(オフチップトレーニング)のアキュラシーに対する0.32-mm$2$の面積で、SPOONが従来の機械学習アクセラレータの効率に達することを示した。
論文 参考訳(メタデータ) (2020-05-13T13:47:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。