論文の概要: Predict and Write: Using K-Means Clustering to Extend the Lifetime of
NVM Storage
- arxiv url: http://arxiv.org/abs/2011.02556v1
- Date: Wed, 4 Nov 2020 22:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 23:25:56.615879
- Title: Predict and Write: Using K-Means Clustering to Extend the Lifetime of
NVM Storage
- Title(参考訳): 予測と書き込み: K-Meansクラスタリングを使ってNVMストレージの寿命を延ばす
- Authors: Saeed Kargar, Heiner Litz, Faisal Nawab
- Abstract要約: 非揮発性メモリ(NVM)技術は書き込み持続時間に制限がある。
我々はクラスタリングベースの機械学習アプローチを用いてNVMの寿命を延長するK/VストアであるPredict and Write (PNW)を提案する。
本研究では,あるPUT/UPDATE操作の適切なターゲットメモリ位置を選択することで,技術状況に対して最大85%,56%のビットフリップとキャッシュライン数を削減可能であることを示す。
- 参考スコア(独自算出の注目度): 9.48240594029501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-volatile memory (NVM) technologies suffer from limited write endurance.
To address this challenge, we propose Predict and Write (PNW), a K/V-store that
uses a clustering-based machine learning approach to extend the lifetime of
NVMs. PNW decreases the number of bit flips for PUT/UPDATE operations by
determining the best memory location an updated value should be written to. PNW
leverages the indirection level of K/V-stores to freely choose the target
memory location for any given write based on its value. PNW organizes NVM
addresses in a dynamic address pool clustered by the similarity of the data
values they refer to. We show that, by choosing the right target memory
location for a given PUT/UPDATE operation, the number of total bit flips and
cache lines can be reduced by up to 85% and 56% over the state of the art.
- Abstract(参考訳): 非揮発性メモリ(NVM)技術は書き込み持続時間に制限がある。
そこで本研究では,クラスタベースの機械学習手法を用いてnvmの寿命を延ばすk/vストアであるpredict and write (pnw)を提案する。
PNW は PUT/UPDATE 操作のビットフリップ数を減らし、更新された値が書き込まれるべき最高のメモリ位置を決定する。
PNWはK/Vストアの間接レベルを利用して、その値に基づいて任意の書き込みに対してターゲットメモリ位置を自由に選択する。
PNWは、参照するデータ値の類似性によってクラスタ化された動的アドレスプール内のNVMアドレスを整理する。
本研究では,あるPUT/UPDATE操作の適切なターゲットメモリ位置を選択することで,技術状況に対して最大85%,56%のビットフリップとキャッシュライン数を削減可能であることを示す。
関連論文リスト
- Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - Enhancing Length Extrapolation in Sequential Models with Pointer-Augmented Neural Memory [66.88278207591294]
本稿では,新しいより長いデータ列に対して,ニューラルネットワークによるシンボル処理の理解と適用を支援するために,Pointer-Augmented Neural Memory (PANM)を提案する。
PANMは、新しい物理アドレスとポインタ操作技術を使用して、人間とコンピュータのシンボル処理能力を模倣する外部のニューラルメモリを統合する。
論文 参考訳(メタデータ) (2024-04-18T03:03:46Z) - MEMORY-VQ: Compression for Tractable Internet-Scale Memory [45.7528997281282]
LUMENのようなメモリベースのメソッドは、検索されたパスのトークン表現を事前に計算し、推論を大幅に高速化する。
本稿では,メモリ拡張モデルのストレージ要求を,性能を犠牲にすることなく低減する新しい方法であるMEMORY-VQを提案する。
論文 参考訳(メタデータ) (2023-08-28T21:11:18Z) - TransforMAP: Transformer for Memory Access Prediction [10.128730975303407]
データプリフェッチ(Data Prefetching)は、プログラムが必要とするデータを取得することで、メモリ遅延を隠蔽するテクニックである。
アドレス空間全体から学習できる強力なTransformerモデルに基づいてTransforMAPを開発した。
我々は,最先端の捕食者やISB捕食者よりも高い35.67%のMPKI改善が達成されていることを示す。
論文 参考訳(メタデータ) (2022-05-29T22:14:38Z) - VW-SDK: Efficient Convolutional Weight Mapping Using Variable Windows
for Processing-In-Memory Architectures [3.1996035949428046]
可変ウィンドウSDK(VW-SDK)と呼ばれる新しいマッピングアルゴリズムを提案する。
VW-SDKは、所定の畳み込み層とPIMアレイの最小計算サイクルにつながる並列ウィンドウの形状を適応的に決定する。
512x512 PIMアレイとResnet-18によるシミュレーションでは、既存のSDKベースのアルゴリズムと比較して、VW-SDKは推論速度を1.69倍改善している。
論文 参考訳(メタデータ) (2021-12-21T15:10:30Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z) - Hierarchical Memory Matching Network for Video Object Segmentation [38.24999776705497]
本稿では,時間的スムーズさを活用しながら,複数スケールのメモリ実行を可能にする2つの高度なメモリ読み取りモジュールを提案する。
まず,非局所的な高密度メモリ読み出しを代替するガイド付きメモリマッチングモジュールを提案する。
階層型メモリマッチング方式を導入し、大小のメモリを粗大のメモリで読み取るトップkガイド型メモリマッチングモジュールを提案する。
論文 参考訳(メタデータ) (2021-09-23T14:36:43Z) - Continual Learning Approach for Improving the Data and Computation
Mapping in Near-Memory Processing System [3.202860612193139]
ページと計算再マッピングによるデータ配置とリソース活用を最適化する人工知能メモリマッピング方式であるAIMMを提案する。
AIMMはニューラルネットワークを使用して、強化学習アルゴリズムを使用して訓練された実行中にほぼ最適なマッピングを実現します。
本研究では,AIMMが単一および複数プログラムシナリオにおけるベースラインNMP性能を最大70%と50%向上させたことを評価した。
論文 参考訳(メタデータ) (2021-04-28T09:50:35Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z) - Leveraging Automated Mixed-Low-Precision Quantization for tiny edge
microcontrollers [76.30674794049293]
本稿では、HAQフレームワークに基づく自動混合精度量子化フローを提案するが、MCUデバイスのメモリおよび計算特性に特化している。
具体的には、強化学習エージェントは、個々の重みとアクティベーションテンソルの2, 4, 8ビットのうち、最高の均一量子化レベルを探索する。
重量のみの量子化のために2MBに制限されたMCUクラスのメモリが与えられた場合、混合精度エンジンによって生成された圧縮されたモデルは、最先端のソリューションと同じくらい正確である。
論文 参考訳(メタデータ) (2020-08-12T06:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。