論文の概要: Real-time Continual Learning on Intel Loihi 2
- arxiv url: http://arxiv.org/abs/2511.01553v1
- Date: Mon, 03 Nov 2025 13:16:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.269297
- Title: Real-time Continual Learning on Intel Loihi 2
- Title(参考訳): Intel Loihi 2でのリアルタイム連続学習
- Authors: Elvin Hajizada, Danielle Rager, Timothy Shea, Leobardo Campos-Macias, Andreas Wild, Eyke Hüllermeier, Yulia Sandamirskaya, Mike Davies,
- Abstract要約: オンライン連続学習のためのCLP-SNNと呼ばれるニューロモルフィックなソリューションを提案する。
CLP-SNNは変換効率の向上を提供する。
これは、共同設計のブレインインインスパイアされたアルゴリズムとニューロモーフィックなハードウェアが、将来のエッジAIシステムに対する従来の精度と効率のトレードオフを壊すことを実証している。
- 参考スコア(独自算出の注目度): 22.180269101937565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI systems on edge devices face a critical challenge in open-world environments: adapting when data distributions shift and novel classes emerge. While offline training dominates current paradigms, online continual learning (OCL)--where models learn incrementally from non-stationary streams without catastrophic forgetting--remains challenging in power-constrained settings. We present a neuromorphic solution called CLP-SNN: a spiking neural network architecture for Continually Learning Prototypes and its implementation on Intel's Loihi 2 chip. Our approach introduces three innovations: (1) event-driven and spatiotemporally sparse local learning, (2) a self-normalizing three-factor learning rule maintaining weight normalization, and (3) integrated neurogenesis and metaplasticity for capacity expansion and forgetting mitigation. On OpenLORIS few-shot learning experiments, CLP-SNN achieves accuracy competitive with replay methods while being rehearsal-free. CLP-SNN delivers transformative efficiency gains: 70\times faster (0.33ms vs 23.2ms), and 5,600\times more energy efficient (0.05mJ vs 281mJ) than the best alternative OCL on edge GPU. This demonstrates that co-designed brain-inspired algorithms and neuromorphic hardware can break traditional accuracy-efficiency trade-offs for future edge AI systems.
- Abstract(参考訳): エッジデバイス上のAIシステムは、オープンワールド環境において重要な課題に直面している。
オフライントレーニングが現在のパラダイムを支配している一方で、オンライン連続学習(OCL)では、非定常ストリームから段階的に学習する。
CLP-SNNは連続学習型ニューラルネットワークアーキテクチャであり,IntelのLoihi 2チップに実装されている。
提案手法では, 事象駆動型, 時空間的な局所学習, 2) 体重正規化を維持する自己正規化3要素学習規則, (3) 容量拡大のための統合神経新生とメタ可塑性, および緩和を忘れることの3つの革新を紹介した。
OpenLORIS数発の学習実験では、CLP-SNNはリハーサルなしでリプレイ手法と競合する精度を達成する。
CLP-SNNは、70\timesの高速化(0.33ms vs 23.2ms)と5,600\timesのエネルギー効率向上(0.05mJ vs 281mJ)を実現している。
これは、共同設計のブレインインインスパイアされたアルゴリズムとニューロモーフィックハードウェアが、将来のエッジAIシステムに対する従来の精度と効率のトレードオフを壊すことを実証している。
関連論文リスト
- The Enduring Dominance of Deep Neural Networks: A Critical Analysis of the Fundamental Limitations of Quantum Machine Learning and Spiking Neural Networks [0.0]
QMLとSNNの最近の進歩は、かなりの興奮を引き起こしている。
本稿は、DNNを短期的に置き換えることはありそうにない、と論じる。
DNNは、効率的なバックプロパゲーション、堅牢な正規化、およびスケーリングを推論時間計算にシフトするLEMのイノベーションを活用する。
論文 参考訳(メタデータ) (2025-10-04T11:00:46Z) - Embedded FPGA Acceleration of Brain-Like Neural Networks: Online Learning to Scalable Inference [0.0]
高レベル合成を用いた Zynq UltraScale+ システム上で,BCPNN 用の最初の FPGA アクセラレータを提案する。
私たちのアクセラレータは、ARMベースライン上で最大17.5倍のレイテンシと94%の省エネを実現しています。
この作業により、エッジデバイス上での実用的なニューロモーフィックコンピューティングが可能になり、脳に似た学習と現実世界のデプロイメントのギャップを埋める。
論文 参考訳(メタデータ) (2025-06-23T11:35:20Z) - Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [59.65431931190187]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で低レイテンシかつエネルギー効率の意思決定を提供する。
連続制御のためのほとんどの連続制御アルゴリズムは、人工ニューラルネットワーク(ANN)のために設計されている。
このミスマッチはSNNのトレーニングを不安定にし、性能を劣化させる。
離散SNNと連続制御アルゴリズムのギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - A Reconfigurable Stream-Based FPGA Accelerator for Bayesian Confidence Propagation Neural Networks [0.0]
脳にインスパイアされたアルゴリズムは、古典的なディープラーニング手法に代わる魅力的な、新たな選択肢だ。
BCPNNは、機械学習と計算神経科学研究の両方にとって重要なツールである。
BCPNNは、他のモデルと比較して学習やメモリリコールといったタスクで最先端のパフォーマンスに達することができる。
我々は、Xilinx Vitis High-Level Synthesis (HLS) フローを用いたFPGA(Field-Programmable Gate Array)を用いて、BCPNN用のカスタムストリームベースのアクセラレータを設計する。
論文 参考訳(メタデータ) (2025-03-03T14:06:43Z) - Activation-wise Propagation: A Universal Strategy to Break Timestep Constraints in Spiking Neural Networks for 3D Data Processing [29.279985043923386]
スパイキングニューロンに対する新しい状態更新機構であるAMP2(Activation-wise membrane potential Propagation)を導入する。
深いネットワークで接続をスキップすることで刺激を受け、AMP2はニューロンの膜電位をネットワークに組み込み、反復的な更新を不要にする。
提案手法は,3次元点雲やイベントストリームなど,様々な3次元モードの大幅な改善を実現する。
論文 参考訳(メタデータ) (2025-02-18T11:52:25Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - L2ight: Enabling On-Chip Learning for Optical Neural Networks via
Efficient in-situ Subspace Optimization [10.005026783940682]
シリコンフォトニクスベースの光ニューラルネットワーク(ONN)は、効率的なAIのパラダイムシフトを示す可能性のある、有望なハードウェアプラットフォームである。
そこで本研究では,スケーラブルなONNマッピングと効率的なin-situ学習を実現するための,閉ループONNオンチップ学習フレームワークL2ightを提案する。
論文 参考訳(メタデータ) (2021-10-27T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。