論文の概要: Machine Learning-Driven Intelligent Memory System Design: From On-Chip Caches to Storage
- arxiv url: http://arxiv.org/abs/2603.14583v1
- Date: Sun, 15 Mar 2026 20:02:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.898103
- Title: Machine Learning-Driven Intelligent Memory System Design: From On-Chip Caches to Storage
- Title(参考訳): 機械学習駆動のインテリジェントメモリシステム設計:オンチップキャッシュからストレージへ
- Authors: Rahul Bera, Rakesh Nadig, Onur Mutlu,
- Abstract要約: 本稿では,軽量かつ実用的な機械学習(ML)手法を用いて,根本的に異なる設計手法を提案する。
Pythia、Hermes、Sibylの3つのML誘導アーキテクチャポリシーを提示します。
我々の評価は、Pythia、Hermes、Sibylが、最も優れた人間設計ポリシーを著しく上回っていることを示している。
- 参考スコア(独自算出の注目度): 7.728870871690254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the data-rich environment in which memory systems of modern computing platforms operate, many state-of-the-art architectural policies employed in the memory system rely on static, human-designed heuristics that fail to truly adapt to the workload and system behavior via principled learning methodologies. In this article, we propose a fundamentally different design approach: using lightweight and practical machine learning (ML) methods to enable adaptive, data-driven control throughout the memory hierarchy. We present three ML-guided architectural policies: (1) Pythia, a reinforcement learning-based data prefetcher for on-chip caches, (2) Hermes, a perceptron learning-based off-chip predictor for multi-level cache hierarchies, and (3) Sibyl, a reinforcement learning-based data placement policy for hybrid storage systems. Our evaluation shows that Pythia, Hermes, and Sibyl significantly outperform the best-prior human-designed policies, while incurring modest hardware overheads. Collectively, this article demonstrates that integrating adaptive learning into memory subsystems can lead to intelligent, self-optimizing architectures that unlock performance and efficiency gains beyond what is possible with traditional human-designed approaches.
- Abstract(参考訳): 現代のコンピューティングプラットフォームのメモリシステムが運用するデータ豊富な環境にもかかわらず、メモリシステムで採用されている最先端のアーキテクチャポリシーの多くは、静的な人間設計のヒューリスティックに依存しており、原則化された学習手法を通じて、ワークロードやシステムの振る舞いに真に適応できない。
本稿では、軽量で実用的な機械学習(ML)手法を用いて、メモリ階層全体にわたって適応的でデータ駆動型制御を実現するという、根本的に異なる設計手法を提案する。
我々は,(1)強化学習に基づくオンチップキャッシュ用データプレファーであるPythia,(2)パーセプトロン学習に基づくマルチレベルキャッシュ階層用オフチップ予測器であるHermes,(3)ハイブリッドストレージシステムのための強化学習ベースのデータ配置ポリシーであるSibylの3つのアーキテクチャポリシーを提案する。
我々の評価によると、Pythia、Hermes、Sibylは、ハードウェアのオーバーヘッドを抑えながら、最も優れた人間設計ポリシーを著しく上回っている。
この記事では、適応学習をメモリサブシステムに組み込むことで、パフォーマンスと効率性を解放するインテリジェントで自己最適化的なアーキテクチャが、従来の人間設計のアプローチで実現可能であることを実証する。
関連論文リスト
- Mitigating the Memory Bottleneck with Machine Learning-Driven and Data-Aware Microarchitectural Techniques [0.5701997979067353]
論文によると、現代のプロセッサは実行中に大量のアプリケーションとシステムデータを観測している。
このようなデータに依存しない設計は、性能とエネルギー効率を向上する大きな機会を逃してしまうことを実証する。
本稿では,観察された実行行動からポリシーを学習し,アプリケーションデータのセマンティックな特徴を活用するメカニズムを提案する。
論文 参考訳(メタデータ) (2026-03-08T15:34:25Z) - Learning to Continually Learn via Meta-learning Agentic Memory Designs [22.10429892509733]
ALMA(Automated Meta-Learning of Memory Design for Agentic Systems)は、手作業によるメモリ設計を置き換えるために、メモリ設計をメタ学習するフレームワークである。
提案手法では,実行可能コードとして表現されたメモリ設計をオープンな方法で検索するメタエージェントを用いる。
論文 参考訳(メタデータ) (2026-02-08T01:20:49Z) - MemEvolve: Meta-Evolution of Agent Memory Systems [66.09735157017558]
自己進化型メモリシステムは、大型言語モデル(LLM)ベースのエージェントの進化パラダイムを前例のない形で再構築している。
MemeEvolveは、エージェントの経験的知識とメモリアーキテクチャを共同で進化させるメタ進化フレームワークである。
EvolveLabは、12の代表的なメモリシステムをモジュール設計空間に蒸留する、統一された自己進化型メモリである。
論文 参考訳(メタデータ) (2025-12-21T14:26:14Z) - Rethinking the Role of Dynamic Sparse Training for Scalable Deep Reinforcement Learning [58.533203990515034]
ニューラルネットワークのスケーリングは機械学習における画期的な進歩をもたらしたが、このパラダイムは深層強化学習(DRL)では失敗している。
我々は、動的スパーストレーニング戦略が、アーキテクチャの改善によって確立された主要なスケーラビリティ基盤を補完するモジュール固有の利点を提供することを示す。
アーキテクチャ改善の利点を生かした実践的なフレームワークであるModule-Specific Training (MST) にこれらの知見を精査し、アルゴリズムの修正なしに様々なRLアルゴリズムをまたいだ大幅なスケーラビリティ向上を示す。
論文 参考訳(メタデータ) (2025-10-14T03:03:08Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - MemoryKT: An Integrative Memory-and-Forgetting Method for Knowledge Tracing [7.096160553754792]
学生の記憶状態をシミュレーションすることは、知識追跡モデルの性能と解釈可能性の両方を高めるための有望なアプローチである。
メモリは、エンコーディング、ストレージ、検索の3つの基本的なプロセスから構成される。
本稿では,新しい時間変動オートエンコーダに基づく知識追跡モデルであるMemoryKTを提案する。
論文 参考訳(メタデータ) (2025-08-11T15:59:59Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Improving Performance in Continual Learning Tasks using Bio-Inspired
Architectures [4.2903672492917755]
我々は,シナプスの可塑性機構とニューロ変調を組み込んだ,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
提案手法により,Split-MNIST,Split-CIFAR-10,Split-CIFAR-100データセット上でのオンライン連続学習性能が向上する。
さらに,鍵設計概念を他のバックプロパゲーションに基づく連続学習アルゴリズムに統合することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T19:12:52Z) - Neuromodulated Neural Architectures with Local Error Signals for
Memory-Constrained Online Continual Learning [4.2903672492917755]
我々は,局所学習とニューロ変調を取り入れた,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
一つの課題と連続的な学習環境の両方にアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-16T07:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。