論文の概要: Brain-inspired Cognition in Next Generation Racetrack Memories
- arxiv url: http://arxiv.org/abs/2111.02246v1
- Date: Wed, 3 Nov 2021 14:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 16:18:42.169868
- Title: Brain-inspired Cognition in Next Generation Racetrack Memories
- Title(参考訳): 次世代競馬場記憶における脳誘発認知
- Authors: Asif Ali Khan, Sebastien Ollivier, Stephen Longofono, Gerald Hempel,
Jeronimo Castrillon and Alex K. Jones
- Abstract要約: 超次元コンピューティング(Hyperdimensional Computing、HDC)は、認知をエミュレートするために数千次元のベクトルで動く脳にインスパイアされた新しい計算フレームワークである。
本稿では,レーストラックメモリ(RTM)をベースとして,メモリ内のHDCフレームワーク全体の実行と高速化を行うアーキテクチャを提案する。
提案手法では、最小限のCMOS回路が必要であり、Transverse Read (TR) と呼ばれるRTM内の複数の領域にまたがる読み出し演算を用いて排他的または追加操作を実現する。
- 参考スコア(独自算出の注目度): 0.6850683267295249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperdimensional computing (HDC) is an emerging computational framework
inspired by the brain that operates on vectors with thousands of dimensions to
emulate cognition. Unlike conventional computational frameworks that operate on
numbers, HDC, like the brain, uses high dimensional random vectors and is
capable of one-shot learning. HDC is based on a well-defined set of arithmetic
operations and is highly error-resilient. The core operations of HDC manipulate
HD vectors in bulk bit-wise fashion, offering many opportunities to leverage
parallelism. Unfortunately, on conventional Von-Neuman architectures, the
continuous movement of HD vectors among the processor and the memory can make
the cognition task prohibitively slow and energy-intensive. Hardware
accelerators only marginally improve related metrics. On the contrary, only
partial implementation of an HDC framework inside memory, using emerging
memristive devices, has reported considerable performance/energy gains. This
paper presents an architecture based on racetrack memory (RTM) to conduct and
accelerate the entire HDC framework within the memory. The proposed solution
requires minimal additional CMOS circuitry and uses a read operation across
multiple domains in RTMs called transverse read (TR) to realize exclusive-or
(XOR) and addition operations. To minimize the overhead the CMOS circuitry, we
propose an RTM nanowires-based counting mechanism that leverages the TR
operation and the standard RTM operations. Using language recognition as the
use case demonstrates 7.8x and 5.3x reduction in the overall runtime and energy
consumption compared to the FPGA design, respectively. Compared to the
state-of-the-art in-memory implementation, the proposed HDC system reduces the
energy consumption by 8.6x.
- Abstract(参考訳): hyperdimensional computing (hdc) は、認知をエミュレートするために数千次元のベクトルを操作する脳に触発された新しい計算フレームワークである。
数を扱う従来の計算フレームワークとは異なり、hdcは脳と同様に高次元ランダムベクトルを使用し、ワンショット学習が可能である。
HDCは、よく定義された演算セットに基づいており、非常にエラー耐性がある。
HDCのコア操作はHDベクトルをビット単位で操作し、並列性を活用する多くの機会を提供する。
残念なことに、Von-Neumanアーキテクチャでは、プロセッサとメモリ間のHDベクトルの連続的な移動は、認識タスクを極めて遅くエネルギー集約的にすることができる。
ハードウェアアクセラレーターは、関連するメトリクスをわずかに改善するだけだ。
それとは対照的に、メモリ内のhdcフレームワークの一部実装のみが、新たなmemristiveデバイスを使用して、かなりのパフォーマンス/エネルギ向上を報告している。
本稿では,レーストラックメモリ(RTM)をベースとして,メモリ内のHDCフレームワーク全体の実行と高速化を行うアーキテクチャを提案する。
提案手法では、最小限のCMOS回路が必要であり、Transverse Read (TR) と呼ばれるRTM内の複数の領域にまたがる読み出し演算を用いて排他的または追加操作を実現する。
CMOS回路のオーバーヘッドを最小限に抑えるため,TR演算と標準RTM演算を利用するRTMナノワイヤを用いたカウント機構を提案する。
言語認識をユースケースとして使用すると、FPGA設計と比較して、ランタイム全体の7.8倍と5.3倍のエネルギー消費が減少する。
最先端のインメモリ実装と比較して、提案したHDCシステムはエネルギー消費を8.6倍削減する。
関連論文リスト
- Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - CHIME: Energy-Efficient STT-RAM-based Concurrent Hierarchical In-Memory Processing [1.5566524830295307]
本稿では、新しいPiC/PiMアーキテクチャ、Concurrent Hierarchical In-Memory Processing(CHIME)を紹介する。
CHIMEは、メモリ階層の複数のレベルにわたる不均一な計算ユニットを戦略的に組み込む。
実験の結果、最先端のビット線コンピューティングアプローチと比較して、CHIMEは57.95%と78.23%の大幅なスピードアップと省エネを実現していることがわかった。
論文 参考訳(メタデータ) (2024-07-29T01:17:54Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - HDCC: A Hyperdimensional Computing compiler for classification on
embedded systems and high-performance computing [58.720142291102135]
この研究は、HDC分類メソッドの高レベルな記述を最適化されたCコードに変換する最初のオープンソースコンパイラである、ネームコンパイラを紹介している。
nameは現代のコンパイラのように設計されており、直感的で記述的な入力言語、中間表現(IR)、再ターゲット可能なバックエンドを備えている。
これらの主張を裏付けるために,HDC文献で最もよく使われているデータセットについて,HDCCを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-24T19:16:03Z) - Pex: Memory-efficient Microcontroller Deep Learning through Partial
Execution [11.336229510791481]
マイクロコントローラ深層学習のための新しい実行パラダイムについて論じる。
ニューラルネットワークの実行を変更して、メモリの完全なバッファーを作らないようにする。
これは演算子のプロパティを利用することで実現され、一度にインプット/アウトプットのごく一部を消費/生産することができる。
論文 参考訳(メタデータ) (2022-11-30T18:47:30Z) - A Co-design view of Compute in-Memory with Non-Volatile Elements for
Neural Networks [12.042322495445196]
次世代のコンピューティングハードウェアにおいて,コンピュート・イン・メモリがいかに重要な役割を果たすかを論じる。
非揮発性メモリベースのクロスバーアーキテクチャは、アナログプロセスを使用して行列ベクトル乗算演算を並列化するエンジンの心臓を形成する。
クロスバーアーキテクチャは、時にはニューロモルフィックアプローチと呼ばれ、将来のコンピュータにおいて重要なハードウェア要素となる。
論文 参考訳(メタデータ) (2022-06-03T15:59:46Z) - Understanding Hyperdimensional Computing for Parallel Single-Pass
Learning [47.82940409267635]
我々はHDCがハードウェア効率を保ちながら、最先端のHDCモデルよりも最大7.6%性能が高いことを示す。
本稿では,HDC の限界を超える新しいクラス VSA,有限群 VSA を提案する。
実験の結果, RFF法とグループVSAはともに最先端HDCモデルより最大7.6%優れていた。
論文 参考訳(メタデータ) (2022-02-10T02:38:56Z) - A 5 \mu W Standard Cell Memory-based Configurable Hyperdimensional
Computing Accelerator for Always-on Smart Sensing [16.589169601764297]
超次元コンピューティング(Hyperdimensional Computing、HDC)は、ベクトルの高次元全体的表現に基づく脳にインスパイアされた計算パラダイムである。
エネルギー制約型センサノードにおける常時オン分類のための完全自律HDCアクセラレータのプログラム可能な全ディジタルCMOS実装を提案する。
論文 参考訳(メタデータ) (2021-02-04T17:41:29Z) - Robust High-dimensional Memory-augmented Neural Networks [13.82206983716435]
メモリ拡張ニューラルネットワークは、これらの問題を克服するために、明示的なメモリでニューラルネットワークを強化する。
この明示的なメモリへのアクセスは、各個々のメモリエントリを含むソフト読み取りおよび書き込み操作を介して行われる。
本稿では,高次元(HD)ベクトル上でのアナログインメモリ計算を行う明示メモリとして,計算メモリユニットを用いた頑健なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-05T12:01:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。