論文の概要: MGX: Near-Zero Overhead Memory Protection for Data-Intensive
Accelerators
- arxiv url: http://arxiv.org/abs/2004.09679v2
- Date: Wed, 25 May 2022 17:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 19:30:16.658343
- Title: MGX: Near-Zero Overhead Memory Protection for Data-Intensive
Accelerators
- Title(参考訳): MGX: データ集約型加速器のためのニアゼロオーバーヘッドメモリ保護
- Authors: Weizhe Hua, Muhammad Umar, Zhiru Zhang, G. Edward Suh
- Abstract要約: MGXはハードウェアアクセラレーターのためのほぼゼロのオーバーヘッドメモリ保護スキームである。
オフチップメモリ暗号化と整合性検証のパフォーマンスオーバーヘッドを最小限に抑える。
- 参考スコア(独自算出の注目度): 16.779628381836257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces MGX, a near-zero overhead memory protection scheme for
hardware accelerators. MGX minimizes the performance overhead of off-chip
memory encryption and integrity verification by exploiting the
application-specific properties of the accelerator execution. In particular,
accelerators tend to explicitly manage data movement between on-chip and
off-chip memories. Therefore, the general memory access pattern of an
accelerator can largely be determined for a given application. Exploiting these
characteristics, MGX generates version numbers used in memory encryption and
integrity verification using on-chip accelerator state rather than storing them
in the off-chip memory; it also customizes the granularity of the memory
protection to match the granularity used by the accelerator. To demonstrate the
efficacy of MGX, we present an in-depth study of MGX for DNN and graph
algorithms. Experimental results show that on average, MGX lowers the
performance overhead of memory protection from 28% and 33% to 4% and 5% for DNN
and graph processing accelerators in a wide range of benchmarks, respectively.
- Abstract(参考訳): 本稿では,ハードウェアアクセラレータのためのメモリ保護方式MGXを紹介する。
MGXは、アクセル実行のアプリケーション固有の特性を活用することにより、オフチップメモリ暗号化と整合性検証のパフォーマンスオーバーヘッドを最小化する。
特にアクセラレータは、オンチップメモリとオフチップメモリ間のデータ移動を明示的に管理する傾向がある。
したがって、アクセラレータの一般的なメモリアクセスパターンは、与えられたアプリケーションに対して大きく決定することができる。
これらの特徴を行使すると、MGXはオフチップメモリに格納するのではなく、オンチップアクセラレータ状態を使用してメモリ暗号化と整合性検証に使用されるバージョン番号を生成し、また、メモリ保護の粒度をアクセルが使用する粒度に合わせるようにカスタマイズする。
MGXの有効性を示すため,DNNおよびグラフアルゴリズムにおけるMGXの詳細な検討を行った。
実験の結果,MGX はメモリ保護性能を DNN とグラフ処理アクセラレータでそれぞれ 28% と 33% から 4% と 5% に低下させることがわかった。
関連論文リスト
- Efficient Video Object Segmentation via Modulated Cross-Attention Memory [123.12273176475863]
頻繁なメモリ拡張を必要とせず、時間的滑らかさをモデル化するトランスフォーマーベースの手法MAVOSを提案する。
我々のMAVOSは、単一のV100 GPU上で37フレーム/秒(FPS)で動作しながら、J&Fスコア63.3%を達成する。
論文 参考訳(メタデータ) (2024-03-26T17:59:58Z) - Sparse MeZO: Less Parameters for Better Performance in Zeroth-Order LLM
Fine-Tuning [67.44661423463927]
本稿では,ZOをパラメータの慎重に選択したサブセットにのみ適用するメモリ効率のゼロ階最適化手法であるSparse MeZOを紹介する。
その結果,Sparse-MeZO はオーバーヘッドを伴わずに,MeZO 上での性能と収束速度を安定的に向上することを示した。
論文 参考訳(メタデータ) (2024-02-24T07:22:04Z) - Spectrum-guided Multi-granularity Referring Video Object Segmentation [56.95836951559529]
現在の参照ビデオオブジェクトセグメンテーション(R-VOS)技術は、符号化された(低解像度)視覚言語特徴から条件付きカーネルを抽出し、デコードされた高解像度特徴をセグメンテーションする。
これは、セグメント化カーネルが前方の計算で知覚に苦慮する重要な特徴の漂流を引き起こす。
符号化された特徴に対して直接セグメント化を行い,マスクをさらに最適化するために視覚的詳細を利用するスペクトル誘導多粒度手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T14:35:25Z) - GLIMMER: generalized late-interaction memory reranker [29.434777627686692]
メモリ拡張は、外部情報を言語モデルに組み込むための強力なアプローチである。
LUMENはメモリを部分的にプリコンプリートし、より小さなライブエンコーダでメモリ表現を更新する。
GLIMMERは,1) メモリ上に浅い再ランカを適用して,高速で検索品質を劇的に向上させることにより,強力なメモリ表現への自由アクセスを活用できる。
論文 参考訳(メタデータ) (2023-06-17T01:54:25Z) - X-Former: In-Memory Acceleration of Transformers [7.194491150684456]
トランスフォーマーは、アテンション機構により、多種多様な自然言語処理(NLP)タスクで大きな成功を収めている。
従来のディープニューラルネットワーク(DNN)アクセラレータは、Transformerを効率的に処理する際の制限に直面している。
非揮発性メモリに基づくインメモリアクセラレータは、この課題に対する効果的な解決策となることを約束する。
我々は、NVMとCMOSの両方の処理要素からなるハイブリッドインメモリハードウェアアクセラレータであるX-Formerを紹介する。
論文 参考訳(メタデータ) (2023-03-13T21:11:54Z) - Pex: Memory-efficient Microcontroller Deep Learning through Partial
Execution [11.336229510791481]
マイクロコントローラ深層学習のための新しい実行パラダイムについて論じる。
ニューラルネットワークの実行を変更して、メモリの完全なバッファーを作らないようにする。
これは演算子のプロパティを利用することで実現され、一度にインプット/アウトプットのごく一部を消費/生産することができる。
論文 参考訳(メタデータ) (2022-11-30T18:47:30Z) - FlashAttention: Fast and Memory-Efficient Exact Attention with
IO-Awareness [80.3586155104237]
FlashAttentionは、トランスフォーマーのためのIO対応の正確な注意アルゴリズムである。
これにより、GPU高帯域メモリ(HBM)とGPUオンチップ間のメモリ読み込み/書き込み数を削減できる。
FlashAttentionとブロックスパース FlashAttentionは、トランスフォーマーのコンテキストを長くすることを可能にする。
論文 参考訳(メタデータ) (2022-05-27T17:53:09Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - Mesa: A Memory-saving Training Framework for Transformers [58.78933015299703]
本稿では,トランスフォーマーのためのメモリ節約トレーニングフレームワークであるMesaを紹介する。
Mesaは、フォワードパス中に正確なアクティベーションを使用し、低精度のアクティベーションを格納することで、トレーニング中のメモリ消費を減らす。
ImageNet、CIFAR-100、ADE20Kの実験は、Mesaがトレーニング中にメモリフットプリントの半分を削減できることを示した。
論文 参考訳(メタデータ) (2021-11-22T11:23:01Z) - Programmable FPGA-based Memory Controller [9.013666207570749]
本稿では,利用可能なハードウェアリソース上の異なるターゲットアプリケーションに対して,モジュール型でプログラム可能なメモリコントローラを提案する。
提案したメモリコントローラは、キャッシュラインアクセスとバルクメモリ転送を効率的にサポートする。
商用メモリコントローラIPと比較して,CNNおよびGCNワークロードのメモリアクセス時間は最大58%向上した。
論文 参考訳(メタデータ) (2021-08-21T23:53:12Z) - PIM-DRAM:Accelerating Machine Learning Workloads using Processing in
Memory based on DRAM Technology [2.6168147530506958]
MLワークロードにおける行列ベクトル演算を高速化する処理インメモリ(PIM)プリミティブを提案する。
提案したアーキテクチャ,マッピング,データフローは,GPUよりも最大で23倍,6.5倍のメリットが得られることを示す。
論文 参考訳(メタデータ) (2021-05-08T16:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。