論文の概要: DARTH-PUM: A Hybrid Processing-Using-Memory Architecture
- arxiv url: http://arxiv.org/abs/2602.16075v1
- Date: Tue, 17 Feb 2026 22:57:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.46374
- Title: DARTH-PUM: A Hybrid Processing-Using-Memory Architecture
- Title(参考訳): DARTH-PUM - ハイブリッド処理とメモリの併用アーキテクチャ
- Authors: Ryan Wong, Ben Feinberg, Saugata Ghose,
- Abstract要約: 汎用ハイブリッドPUMアーキテクチャであるDARTH-PUMを提案する。
59.4x, 14.8x, 40.8xのスピードアップでDARTH-PUMにマップしてメリットを享受できる3つの一般的なアプリケーションを紹介した。
- 参考スコア(独自算出の注目度): 1.9139952049109785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analog processing-using-memory (PUM; a.k.a. in-memory computing) makes use of electrical interactions inside memory arrays to perform bulk matrix-vector multiplication (MVM) operations. However, many popular matrix-based kernels need to execute non-MVM operations, which analog PUM cannot directly perform. To retain its energy efficiency, analog PUM architectures augment memory arrays with CMOS-based domain-specific fixed-function hardware to provide complete kernel functionality, but the difficulty of integrating such specialized CMOS logic with memory arrays has largely limited analog PUM to being an accelerator for machine learning inference, or for closely related kernels. An opportunity exists to harness analog PUM for general-purpose computation: recent works have shown that memory arrays can also perform Boolean PUM operations, albeit with very different supporting hardware and electrical signals than analog PUM. We propose DARTH-PUM, a general-purpose hybrid PUM architecture that tackles key hardware and software challenges to integrating analog PUM and digital PUM. We propose optimized peripheral circuitry, coordinating hardware to manage and interface between both types of PUM, an easy-to-use programming interface, and low-cost support for flexible data widths. These design elements allow us to build a practical PUM architecture that can execute kernels fully in memory, and can scale easily to cater to domains ranging from embedded applications to large-scale data-driven computing. We show how three popular applications (AES encryption, convolutional neural networks, large-language models) can map to and benefit from DARTH-PUM, with speedups of 59.4x, 14.8x, and 40.8x over an analog+CPU baseline.
- Abstract(参考訳): アナログ処理用メモリ(PUM, in-Memory computing)は、メモリアレイ内の電気的相互作用を利用して、バルク行列ベクトル乗算(MVM)演算を行う。
しかし、多くの人気のある行列ベースのカーネルは、アナログPUMが直接実行できない非MVM操作を実行する必要がある。
アナログPUMアーキテクチャは、そのエネルギー効率を維持するために、CMOSベースのドメイン固有の固定機能ハードウェアでメモリアレイを増強し、完全なカーネル機能を提供するが、そのような特殊なCMOSロジックとメモリアレイを統合することの難しさは、機械学習推論のアクセラレーターや、密接に関連するカーネルのアクセラレーターに大きく制限されている。
最近の研究では、メモリアレイは、アナログPUMとは全く異なるサポートハードウェアと電気信号を持つにもかかわらず、ブールPUM操作を実行できることが示されている。
DARTH-PUMは,アナログPUMとデジタルPUMを統合するためのハードウェアおよびソフトウェアの重要な課題に対処する汎用ハイブリッドPUMアーキテクチャである。
本稿では, 周辺回路の最適化, PUMの両タイプ間管理とインタフェースのためのハードウェアのコーディネート, 使い易いプログラミングインタフェース, フレキシブルデータ幅に対する低コストサポートを提案する。
これらの設計要素により、カーネルを完全なメモリで実行し、組み込みアプリケーションから大規模データ駆動コンピューティングまで幅広い領域に容易にスケールできる実用的なPUMアーキテクチャを構築することができる。
3つの一般的なアプリケーション(AES暗号化、畳み込みニューラルネットワーク、大言語モデル)が、アナログCPUベースライン上で59.4x、14.8x、40.8xのスピードアップでDARTH-PUMにマップし、メリットを享受できることを示す。
関連論文リスト
- DRAMatic Speedup: Accelerating HE Operations on a Processing-in-Memory System [4.464102544889846]
ホモモルフィック暗号化(HE)は、機密クラウドコンピューティングのための有望な技術である。
プロセッサ・イン・メモリ(Processing-in-Memory、PIM)は、プロセッサユニットとメモリを同じチップまたはメモリモジュールに統合する代替のハードウェアアーキテクチャである。
UPMEMのプログラム可能な汎用PIMシステム上で,HEの基本となる操作を実装したDRAMaticを提案する。
論文 参考訳(メタデータ) (2026-02-12T21:45:15Z) - PAPI: Exploiting Dynamic Parallelism in Large Language Model Decoding with a Processing-In-Memory-Enabled Computing System [13.678531084541666]
PAPI は PIM 対応のヘテロジニアスアーキテクチャで,計算バウンドカーネルやメモリバウンドカーネルを適切なハードウェアユニットに動的にスケジューリングする。
PAPIは最先端の異種加速器と最先端のPIM専用加速器で1.8$times$と11.1$times$を達成している。
論文 参考訳(メタデータ) (2025-02-21T13:52:31Z) - EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,既存の並列処理方式を超越したMoE用パイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法と比較して,プリフィルスループットは52.4%向上した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - DAISM: Digital Approximate In-SRAM Multiplier-based Accelerator for DNN
Training and Inference [4.718504401468233]
PIMソリューションは、まだ成熟していない新しいメモリ技術か、パフォーマンス上のオーバーヘッドとスケーラビリティの問題のあるビットシリアル計算に依存している。
本稿では,従来のメモリを用いてビット並列計算を行い,複数のワードラインのアクティベーションを利用する,SRAM内デジタル乗算器を提案する。
次に、この乗算器を利用したアーキテクチャであるDAISMを導入し、SOTAと比較して最大2桁高い面積効率を実現し、競争エネルギー効率を向上する。
論文 参考訳(メタデータ) (2023-05-12T10:58:21Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - In-memory Implementation of On-chip Trainable and Scalable ANN for AI/ML
Applications [0.0]
本稿では,人工知能(AI)と機械学習(ML)アプリケーションを実現するための,ANNのためのインメモリコンピューティングアーキテクチャを提案する。
我々の新しいオンチップトレーニングとインメモリアーキテクチャは、プリチャージサイクル当たりの配列の複数行を同時にアクセスすることで、エネルギーコストを削減し、スループットを向上させる。
提案したアーキテクチャはIRISデータセットでトレーニングされ、以前の分類器と比較してMAC当たりのエネルギー効率が4,6倍に向上した。
論文 参考訳(メタデータ) (2020-05-19T15:36:39Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。