論文の概要: PDA-LSTM: Knowledge-driven page data arrangement based on LSTM for LCM supression in QLC 3D NAND flash memories
- arxiv url: http://arxiv.org/abs/2511.00075v1
- Date: Wed, 29 Oct 2025 14:37:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.564785
- Title: PDA-LSTM: Knowledge-driven page data arrangement based on LSTM for LCM supression in QLC 3D NAND flash memories
- Title(参考訳): PDA-LSTM:QLC 3D NANDフラッシュメモリにおけるLCM抑圧のためのLSTMに基づく知識駆動型ページデータアレンジメント
- Authors: Qianhui Li, Weiya Wang, Qianqi Zhao, Tong Qu, Jing He, Xuhong Qiang, Jingwen Hou, Ke Chen, Bao Zhang, Qi Wang,
- Abstract要約: LCM抑制のためのページ内データを配置するインテリジェントモデルPDA-LSTMを提案する。
実験の結果、PDA-LSTMはデータアレンジメントのない戦略と比較して平均BERを80.4%削減することがわかった。
- 参考スコア(独自算出の注目度): 11.682217207046394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quarter level cell (QLC) 3D NAND flash memory is emerging as the predominant storage solution in the era of artificial intelligence. QLC 3D NAND flash stores 4 bit per cell to expand the storage density, resulting in narrower read margins. Constrained to read margins, QLC always suffers from lateral charge migration (LCM), which caused by non-uniform charge density across adjacent memory cells. To suppress charge density gap between cells, there are some algorithm in form of intra-page data mapping such as WBVM, DVDS. However, we observe inter-page data arrangements also approach the suppression. Thus, we proposed an intelligent model PDA-LSTM to arrange intra-page data for LCM suppression, which is a physics-knowledge-driven neural network model. PDA-LSTM applies a long-short term memory (LSTM) neural network to compute a data arrangement probability matrix from input page data pattern. The arrangement is to minimize the global impacts derived from the LCM among wordlines. Since each page data can be arranged only once, we design a transformation from output matrix of LSTM network to non-repetitive sequence generation probability matrix to assist training process. The arranged data pattern can decrease the bit error rate (BER) during data retention. In addition, PDA-LSTM do not need extra flag bits to record data transport of 3D NAND flash compared with WBVM, DVDS. The experiment results show that the PDA-LSTM reduces the average BER by 80.4% compared with strategy without data arrangement, and by 18.4%, 15.2% compared respectively with WBVM and DVDS with code-length 64.
- Abstract(参考訳): Quarter Level Cell (QLC) 3D NANDフラッシュメモリは、人工知能時代の主要なストレージソリューションとして登場しつつある。
QLC 3D NANDフラッシュは4ビットのセルを格納し、ストレージ密度を拡大し、読み出しマージンを狭める。
QLCは常に横電荷移動(LCM)に悩まされ、隣接するメモリセルにまたがる非一様電荷密度によって引き起こされる。
セル間の電荷密度ギャップを抑制するため、WBVMやDVDSのようなページ内データマッピングの形でいくつかのアルゴリズムが存在する。
しかし、ページ間データアレンジメントも抑制に近づいた。
そこで我々は,物理知識駆動型ニューラルネットワークモデルである LCM 抑圧のためのページ内データを配置するインテリジェントモデル PDA-LSTM を提案する。
PDA-LSTMは、入力ページデータパターンからデータ配置確率行列を計算するために、LSTM(long-short term memory)ニューラルネットワークを適用している。
このアレンジメントは、ワードライン間のLCMから導出される大域的な影響を最小限に抑える。
各ページデータは1回だけ配置できるので、LSTMネットワークの出力行列から非繰り返しシーケンス生成確率行列への変換を設計し、トレーニングプロセスを支援する。
配列されたデータパターンは、データ保持中のビットエラー率(BER)を減少させることができる。
さらに、PDA-LSTMはWBVMやDVDSに比べて3D NANDフラッシュのデータ転送を記録するために、余分なフラグビットを必要としない。
実験の結果、PDA-LSTMはデータアレンジのない戦略と比較して平均BERを80.4%削減し、WBVMとDVDSのコード長64に対してそれぞれ18.4%、15.2%削減した。
関連論文リスト
- CARVQ: Corrective Adaptor with Group Residual Vector Quantization for LLM Embedding Compression [0.4104352271917982]
大規模言語モデル(LLM)はトークンの埋め込みに多数のパラメータを依存しているため、かなりのストレージ要件とメモリフットプリントに繋がる。
本稿では, グループ残差ベクトル量子化を併用したポストトレーニング小説Corrective AdaptorであるCARVQを紹介する。
CarVQは、低ビットストレージをサポートするための特別なハードウェアを必要とせず、約1.6ビットまで圧縮するためにオリジナルのモデルを模倣している。
論文 参考訳(メタデータ) (2025-10-14T17:00:13Z) - LiVOS: Light Video Object Segmentation with Gated Linear Matching [116.58237547253935]
LiVOSはリニアアテンションによるリニアマッチングを利用する軽量メモリネットワークである。
長くて高解像度のビデオでは、STMベースのメソッドと53%のGPUメモリで一致し、32Gの消費者向けGPU上で4096pの推論をサポートする。
論文 参考訳(メタデータ) (2024-11-05T05:36:17Z) - TrIM, Triangular Input Movement Systolic Array for Convolutional Neural Networks: Dataflow and Analytical Modelling [0.0]
畳み込みニューラルネットワーク(CNN)はフォン・ノイマンのボトルネックに影響を受けやすい。
このボトルネックは、処理コアとメモリ間でデータを移動する際のエネルギーコストに関連している。
本稿では,三角入力運動に基づく新しいSAデータフローであるTrIMを提案する。
論文 参考訳(メタデータ) (2024-08-02T13:15:17Z) - Fast Matrix Multiplications for Lookup Table-Quantized LLMs [58.11584672945781]
FLUTEはLUT量子化LLM用のフレキシブルなルックアップテーブルエンジンである。
バッチサイズ32と量子化グループサイズ128では、FLUTEカーネルは既存のGEMMカーネルよりも2〜4倍高速である。
論文 参考訳(メタデータ) (2024-07-15T17:55:42Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - Working Memory Connections for LSTM [51.742526187978726]
ワーキングメモリ接続は,様々なタスクにおけるLSTMの性能を常に向上することを示す。
数値的な結果は、細胞状態がゲート構造に含まれる価値のある情報を含んでいることを示唆している。
論文 参考訳(メタデータ) (2021-08-31T18:01:30Z) - Bayesian Federated Learning over Wireless Networks [87.37301441859925]
フェデレーションラーニングは、ローカルデバイスに保存された異種データセットを使用したプライバシー保護と分散トレーニング方法です。
本稿では、スケーラブルBFL (SBFL) と呼ばれる効率的な修正BFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-31T07:32:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。