論文の概要: Human-like Working Memory from Artificial Intrinsic Plasticity Neurons
- arxiv url: http://arxiv.org/abs/2512.15829v1
- Date: Wed, 17 Dec 2025 17:24:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.752939
- Title: Human-like Working Memory from Artificial Intrinsic Plasticity Neurons
- Title(参考訳): 人工内在性可塑性ニューロンからのヒューマンライクなワーキングメモリ
- Authors: Jingli Liu, Huannan Zheng, Bohao Zou, Kezhou Yang,
- Abstract要約: IPNetはニューロモルフィックなアーキテクチャであり、神経内在的な可塑性によって人間の様のワーキングメモリを実現する。
自律運転では、IPNetはResNet-LSTMと比較してステアリング予測誤差を14.4%削減する。
- 参考スコア(独自算出の注目度): 0.03110995905282904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Working memory enables the brain to integrate transient information for rapid decision-making. Artificial networks typically replicate this via recurrent or parallel architectures, yet incur high energy costs and noise sensitivity. Here we report IPNet, a hardware-software co-designed neuromorphic architecture realizing human-like working memory via neuronal intrinsic plasticity. Exploiting Joule-heating dynamics of Magnetic Tunnel Junctions (MTJs), IPNet physically emulates biological memory volatility. The memory behavior of the proposed architecture shows similar trends in n-back, free recall and memory interference tasks to that of reported human subjects. Implemented exclusively with MTJ neurons, the architecture with human-like working memory achieves 99.65% accuracy on 11-class DVS gesture datasets and maintains 99.48% on a novel 22-class time-reversed benchmark, outperforming RNN, LSTM, and 2+1D CNN baselines sharing identical backbones. For autonomous driving (DDD-20), IPNet reduces steering prediction error by 14.4% compared to ResNet-LSTM. Architecturally, we identify a 'Memory-at-the-Frontier' effect where performance is maximized at the sensing interface, validating a bio-plausible near-sensor processing paradigm. Crucially, all results rely on raw parameters from fabricated devices without optimization. Hardware-in-the-loop validation confirms the system's physical realizability. Separately, energy analysis reveals a reduction in memory power of 2,874x compared to LSTMs and 90,920x versus parallel 3D-CNNs. This capacitor-free design enables a compact ~1.5um2 footprint (28 nm CMOS): a >20-fold reduction over standard LIF neurons. Ultimately, we demonstrate that instantiating human-like working memory via intrinsic neuronal plasticity endows neural networks with the dual biological advantages of superior dynamic vision processing and minimal metabolic cost.
- Abstract(参考訳): ワーキングメモリにより、脳は迅速な意思決定のために過渡的な情報を統合できる。
人工ネットワークは通常、繰り返しまたは並列アーキテクチャによってこれを複製するが、高エネルギーコストとノイズ感度を発生させる。
本稿では、ハードウェアソフトウェアが共同設計したニューロモルフィックアーキテクチャであるIPNetについて報告する。
磁気トンネル接合(MTJ)の爆発的ジュール加熱ダイナミクスにより、IPNetは生物学的メモリのボラティリティを物理的にエミュレートする。
提案アーキテクチャのメモリ挙動は,n-back,フリーリコール,メモリ干渉タスクにおいて,報告対象者と同様の傾向を示す。
MTJニューロンにのみ実装されているこのアーキテクチャは、11クラスのDVSジェスチャデータセットで99.65%の精度を達成し、新しい22クラスの時間反転ベンチマークで99.48%を維持し、RNN、LSTM、および2+1D CNNベースラインで同じバックボーンを共有する。
自律運転(DDD-20)では、IPNetはResNet-LSTMと比較してステアリング予測誤差を14.4%削減する。
アーキテクチャ上,センサインタフェースの性能を最大化し,バイオプレース可能な近接センサ処理パラダイムを検証する「メモリ・アット・ザ・フランティエ」効果を同定する。
重要な点として、すべての結果は最適化せずに製造されたデバイスからの生パラメータに依存している。
ハードウェア・イン・ザ・ループ検証はシステムの物理的実現可能性を確認する。
エネルギー分析では、LSTMと90,920倍の並列3D-CNNと比較して2,874倍のメモリパワーが低下している。
このキャパシタフリーな設計により、1.5um2フットプリント(28nm CMOS)が標準LIFニューロンよりも20倍小さくなる。
究極的には、本質的な神経可塑性による人間的なワーキングメモリのインスタンス化は、優れた動的視覚処理と最小代謝コストの2つの生物学的利点をニューラルネットワークにもたらすことを実証する。
関連論文リスト
- Algorithm-hardware co-design of neuromorphic networks with dual memory pathways [8.49692039836696]
イベント駆動センシングでは、スパイクニューラルネットワークが優れている。
長期にわたるタスク関連コンテキストの維持は、この分野における中核的な課題である。
我々は,新しいアルゴリズムとハードウェアの共同設計を通じて,この問題に対処する。
論文 参考訳(メタデータ) (2025-12-08T14:50:26Z) - Computing with Canonical Microcircuits [0.0]
標準マイクロ回路(CMC)に基づく計算アーキテクチャを提案する。
我々はこれらの回路を、スピン状星状体、抑制性、錐体ニューロンからなる神経回路として実装する。
実験の結果、1つのMCCノードでさえ、MNISTで97.8%の精度を達成していることがわかった。
論文 参考訳(メタデータ) (2025-07-25T11:10:13Z) - Topology Optimization of Random Memristors for Input-Aware Dynamic SNN [44.38472635536787]
入力対応動的旋回型スパイクニューラルネットワーク(PRIME)のプルーニング最適化について紹介する。
信号表現の面では、PRIMEは脳固有のスパイキング機構をエミュレートするために、漏れやすい統合と発火のニューロンを使用する。
計算深度の動的調整にインスパイアされた再構成性のために、PRIMEは入力対応の動的早期停止ポリシーを採用している。
論文 参考訳(メタデータ) (2024-07-26T09:35:02Z) - Dynamic neural network with memristive CIM and CAM for 2D and 3D vision [57.6208980140268]
本稿では,memristor を用いた意味記憶に基づく動的ニューラルネットワーク (DNN) を提案する。
ネットワークは、受信したデータとセマンティックベクターとして格納された過去の経験を関連付ける。
MNISTとModelNetのデータセットから画像と3Dポイントを分類するために、ResNetとPointNet++の40nmのmemristorマクロを用いて、我々の共同設計を検証する。
論文 参考訳(メタデータ) (2024-07-12T04:55:57Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。