論文の概要: Co-Design of Memory-Storage Systems for Workload Awareness with Interpretable Models
- arxiv url: http://arxiv.org/abs/2603.15571v1
- Date: Mon, 16 Mar 2026 17:33:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.696342
- Title: Co-Design of Memory-Storage Systems for Workload Awareness with Interpretable Models
- Title(参考訳): 解釈可能なモデルを用いたワークロード認識のためのメモリストレージシステムの共同設計
- Authors: Jay Sarkar, Vamsi Pavan Rayaprolu, Abhijeet Bhalerao,
- Abstract要約: NANDまたは新興メモリデバイス(SSD)に基づくソリッドステートストレージは、信頼性と性能の両方に設計され、最適化されている。
システム方法論とモデリングのための機械学習(ML)について述べる。
このフレームワークがEMワークロードドメインの表現学習を可能にし、幅広いワークロードにまたがるアーキテクチャ設計空間を拡張できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Solid-state storage architectures based on NAND or emerging memory devices (SSD), are fundamentally architected and optimized for both reliability and performance. Achieving these simultaneous goals requires co-design of memory components with firmware-architected Error Management (EM) algorithms for density- and performance-scaled memory technologies. We describe a Machine Learning (ML) for systems methodology and modeling for co-designing the EM subsystem together with the natural variance inherent to scaled silicon process of memory components underlying SSD technology. The modeling analyzes NAND memory components and EM algorithms interacting with comprehensive suite of synthetic (stress-focused and JEDEC) and emulation (YCSB and similar) workloads across Flash Translation abstraction layers, by leveraging a statistically interpretable and intuitively explainable ML algorithm. The generalizable co-design framework evaluates several thousand datacenter SSDs spanning multiple generations of memory and storage technology. Consequently, the modeling framework enables continuous, holistic, data-driven design towards generational architectural advancements. We additionally demonstrate that the framework enables Representation Learning of the EM-workload domain for enhancement of the architectural design-space across broad spectrum of workloads.
- Abstract(参考訳): NANDまたは新興メモリデバイス(SSD)に基づくソリッドステートストレージアーキテクチャは、信頼性とパフォーマンスの両方に基本設計され、最適化されている。
これらの同時目標を達成するには、ファームウェアアーキテクチャのError Management (EM)アルゴリズムと、密度と性能をスケールしたメモリ技術の共同設計が必要である。
システム方法論とモデリングのための機械学習(ML)を,SSD技術の基礎となるメモリコンポーネントのスケール化シリコンプロセスに固有の自然な分散とともに,EMサブシステムと協調設計するためのモデルとして記述する。
このモデリングは、統計的に解釈可能で直感的に説明可能なMLアルゴリズムを利用して、NANDメモリコンポーネントとEMアルゴリズムを分析し、Flashの抽象化層にまたがる総合的な合成(ストレス重視およびJEDEC)およびエミュレーション(YCSBなど)ワークロードと相互作用する。
一般化可能なコデザインフレームワークは、複数の世代にわたるメモリとストレージ技術にまたがる数千のデータセンターSSDを評価する。
結果として、モデリングフレームワークは、世代的アーキテクチャの進歩に向けて、連続的で全体論的、データ駆動設計を可能にします。
さらに、このフレームワークがEMワークロード領域の表現学習を可能にし、幅広いワークロードにまたがるアーキテクチャ設計空間の強化を可能にしていることを実証する。
関連論文リスト
- The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Long-Context State-Space Video World Models [66.28743632951218]
本稿では、状態空間モデル(SSM)を活用して、計算効率を損なうことなく時間記憶を拡張する新しいアーキテクチャを提案する。
我々の設計の中心はブロックワイズSSMスキャン方式であり、時間記憶の拡張のために空間整合性を戦略的にトレードオフする。
メモリ迷路とMinecraftのデータセットの実験は、我々のアプローチが長距離メモリ保存のベースラインを超えたことを示している。
論文 参考訳(メタデータ) (2025-05-26T16:12:41Z) - CIMFlow: An Integrated Framework for Systematic Design and Evaluation of Digital CIM Architectures [5.7317927540954505]
CIMFlowは、デジタルCIMアーキテクチャ上でのワークロードの実装と評価のためのアウトオブボックスワークフローを提供する統合フレームワークである。
CIMFlowはコンパイルとシミュレーションのインフラをフレキシブルな命令セットアーキテクチャでブリッジする。
論文 参考訳(メタデータ) (2025-05-02T08:38:30Z) - Understanding and Optimizing Multi-Stage AI Inference Pipelines [11.254219071373319]
HERMESは不均一な多段LPM推論実行シミュレータである。
HERMESは、以前のフレームワークとは異なり、複数のモデルを同時に実行する異種クライアントをサポートする。
我々は、推論ステージがエンドツーエンドのレイテンシ、ハイブリッドパイプラインの最適戦略、リモートKVキャッシュ検索のアーキテクチャ的影響について検討する。
論文 参考訳(メタデータ) (2025-04-14T00:29:49Z) - Performance Modeling and Workload Analysis of Distributed Large Language Model Training and Inference [2.2231908139555734]
本稿では,分散LLMトレーニングと推論の一般的な性能モデリング手法とワークロード解析を提案する。
文献や関連業界ベンダ(NVIDIAなど)の公開データによるパフォーマンス予測を検証する。
論文 参考訳(メタデータ) (2024-07-19T19:49:05Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。