論文の概要: Enhancing Biologically Inspired Hierarchical Temporal Memory with Hardware-Accelerated Reflex Memory
- arxiv url: http://arxiv.org/abs/2504.03746v1
- Date: Tue, 01 Apr 2025 17:40:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:14:17.594251
- Title: Enhancing Biologically Inspired Hierarchical Temporal Memory with Hardware-Accelerated Reflex Memory
- Title(参考訳): ハードウェア・アクセラレーション・リフレクション・メモリによる生物学的にインスパイアされた階層的時間記憶の強化
- Authors: Pavia Bera, Sabrina Hassan Moon, Jennifer Adorno, Dayane Alfenas Reis, Sanjukta Bhanja,
- Abstract要約: 本稿では,1次推論の処理を高速化するために,スピナルコルドの動作機構にインスパイアされたReflex Memory(RM)ブロックを提案する。
RMとHTMの統合は、繰り返し情報をより効率的に処理するAccelerated Hierarchical Temporal Memory (AHTM)と呼ばれるシステムを形成する。
元のアルゴリズムであるAHTMと比較して、AHTMは最大7.55倍の推論を加速し、H-AHTMは10.10倍の高速化でさらに性能を向上させる。
- 参考スコア(独自算出の注目度): 0.29127054707887967
- License:
- Abstract: The rapid expansion of the Internet of Things (IoT) generates zettabytes of data that demand efficient unsupervised learning systems. Hierarchical Temporal Memory (HTM), a third-generation unsupervised AI algorithm, models the neocortex of the human brain by simulating columns of neurons to process and predict sequences. These neuron columns can memorize and infer sequences across multiple orders. While multiorder inferences offer robust predictive capabilities, they often come with significant computational overhead. The Sequence Memory (SM) component of HTM, which manages these inferences, encounters bottlenecks primarily due to its extensive programmable interconnects. In many cases, it has been observed that first-order temporal relationships have proven to be sufficient without any significant loss in efficiency. This paper introduces a Reflex Memory (RM) block, inspired by the Spinal Cord's working mechanisms, designed to accelerate the processing of first-order inferences. The RM block performs these inferences significantly faster than the SM. The integration of RM with HTM forms a system called the Accelerated Hierarchical Temporal Memory (AHTM), which processes repetitive information more efficiently than the original HTM while still supporting multiorder inferences. The experimental results demonstrate that the HTM predicts an event in 0.945 s, whereas the AHTM module does so in 0.125 s. Additionally, the hardware implementation of RM in a content-addressable memory (CAM) block, known as Hardware-Accelerated Hierarchical Temporal Memory (H-AHTM), predicts an event in just 0.094 s, significantly improving inference speed. Compared to the original algorithm \cite{bautista2020matlabhtm}, AHTM accelerates inference by up to 7.55x, while H-AHTM further enhances performance with a 10.10x speedup.
- Abstract(参考訳): IoT(Internet of Things)の急速な拡張は、効率的な教師なし学習システムを必要とするゼタバイトのデータを生成する。
階層的時間記憶(Hierarchical Temporal Memory, HTM)は、第3世代の教師なしAIアルゴリズムで、ニューロンの列をシミュレートして、シーケンスを処理および予測することで、人間の脳の新皮質をモデル化する。
これらのニューロン列は、複数の順序で配列を記憶し、推論することができる。
マルチオーダー推論は堅牢な予測能力を提供するが、しばしば計算オーバーヘッドが大きい。
これらの推論を管理するHTMのシーケンスメモリ(SM)コンポーネントは、主にプログラム可能な相互接続のためにボトルネックに遭遇する。
多くの場合、一階の時間的関係は効率を著しく損なうことなく十分であることが証明されている。
本稿では,1次推論処理の高速化を目的とした,スピナルコード動作機構にインスパイアされたReflex Memory(RM)ブロックを提案する。
RMブロックはこれらの推論をSMよりも大幅に高速に行う。
RM と HTM の統合は Accelerated Hierarchical Temporal Memory (AHTM) と呼ばれるシステムを形成する。
実験の結果、HTMは0.945秒で事象を予測するのに対し、AHTMモジュールは0.125秒で事象を予測することがわかった。
さらに、RMのハードウェア実装であるハードウェア・アクセラレーション・ヒエラルカル・テンポラル・メモリ(H-AHTM)は、わずか0.094秒でイベントを予測し、推論速度を大幅に改善する。
AHTMは元のアルゴリズム \cite{bautista 2020matlabhtm} と比較して最大7.55倍の推論を加速し、H-AHTMは10.10倍の高速化でさらに性能を向上させる。
関連論文リスト
- Memory Is All You Need: An Overview of Compute-in-Memory Architectures for Accelerating Large Language Model Inference [2.9302211589186244]
大規模言語モデル(LLM)は自然言語処理を変換し、機械が人間のようなテキストを生成し、意味のある会話を行うことを可能にする。
計算と記憶能力の発達はムーアの法則の廃止によってさらに悪化している。
コンピュート・イン・メモリ(CIM)技術は、メモリ内でアナログ計算を直接実行することにより、AI推論を加速するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-12T16:57:58Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z) - Neuromorphic Computing with AER using Time-to-Event-Margin Propagation [7.730429080477441]
我々は、AERプロトコルに固有の遅延、トリガー、ソートといった因果的時間的プリミティブが、スケーラブルなニューロモルフィックコンピューティングにどのように活用できるかを示す。
提案したTEMPベースのAERアーキテクチャは、完全に非同期であり、メモリとコンピューティングの相互接続遅延に依存している。
概念実証として、トレーニングされたTEMPベースの畳み込みニューラルネットワーク(CNN)が、MNISTデータセット上で99%以上の精度を示すことを示す。
論文 参考訳(メタデータ) (2023-04-27T02:01:54Z) - MF-NeRF: Memory Efficient NeRF with Mixed-Feature Hash Table [62.164549651134465]
MF-NeRFは,Mixed-Featureハッシュテーブルを用いてメモリ効率を向上し,再構成品質を維持しながらトレーニング時間を短縮するメモリ効率の高いNeRFフレームワークである。
最新技術であるInstant-NGP、TensoRF、DVGOによる実験は、MF-NeRFが同じGPUハードウェア上で、同様のあるいはそれ以上のリコンストラクション品質で最速のトレーニング時間を達成できることを示唆している。
論文 参考訳(メタデータ) (2023-04-25T05:44:50Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Sequential memory improves sample and memory efficiency in Episodic Control [0.0]
最先端の強化学習アルゴリズムは、パフォーマンスを達成するために必要なエピソードの数が多いため、サンプル非効率である。
哺乳類の海馬にインスパイアされたERLアルゴリズムは、通常、拡張メモリシステムを使用して過去の出来事から学習をブートストラップし、このサンプル非効率問題を克服する。
ここでは、エピソードサンプリングの順序から得られる取得メモリ内容のバイアスを含めることで、エピソード制御アルゴリズムのサンプリングとメモリ効率が向上することを示す。
論文 参考訳(メタデータ) (2021-12-29T18:42:15Z) - Boosting Mobile CNN Inference through Semantic Memory [12.45440733435801]
デバイス上のCNN推論を改善するためのセマンティックメモリ設計を開発する。
SMTMは、関心のあるオブジェクトの長いテール分布を利用するために階層型メモリアーキテクチャを採用している。
標準的なアプローチ(最大2倍)や以前のキャッシュ設計(最大1.5倍)よりもモデル推論を大幅に高速化し、精度の低下を許容できる。
論文 参考訳(メタデータ) (2021-12-05T18:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。