論文の概要: ReLMXEL: Adaptive RL-Based Memory Controller with Explainable Energy and Latency Optimization
- arxiv url: http://arxiv.org/abs/2603.17309v1
- Date: Wed, 18 Mar 2026 03:07:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.491224
- Title: ReLMXEL: Adaptive RL-Based Memory Controller with Explainable Energy and Latency Optimization
- Title(参考訳): ReLMXEL: 説明可能なエネルギーとレイテンシ最適化を備えた適応RLベースのメモリコントローラ
- Authors: Panuganti Chirag Sai, Gandholi Sarat, R. Raghunatha Sarma, Venkata Kalyan Tavva, Naveen M,
- Abstract要約: ReLMXELは説明可能なマルチエージェントオンライン強化学習フレームワークである。
報酬分解を使ってメモリコントローラパラメータを動的に最適化する。
ReLMXELはメモリコントローラ内で動作し、詳細なメモリ動作メトリクスを利用して意思決定をガイドする。
- 参考スコア(独自算出の注目度): 0.20524609401792393
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reducing latency and energy consumption is critical to improving the efficiency of memory systems in modern computing. This work introduces ReLMXEL (Reinforcement Learning for Memory Controller with Explainable Energy and Latency Optimization), a explainable multi-agent online reinforcement learning framework that dynamically optimizes memory controller parameters using reward decomposition. ReLMXEL operates within the memory controller, leveraging detailed memory behavior metrics to guide decision-making. Experimental evaluations across diverse workloads demonstrate consistent performance gains over baseline configurations, with refinements driven by workload-specific memory access behaviour. By incorporating explainability into the learning process, ReLMXEL not only enhances performance but also increases the transparency of control decisions, paving the way for more accountable and adaptive memory system designs.
- Abstract(参考訳): 現代のコンピューティングにおけるメモリシステムの効率向上には、レイテンシとエネルギー消費の削減が不可欠である。
ReLMXEL(Reinforcement Learning for Memory Controller with Explainable Energy and Latency Optimization)は、メモリコントローラパラメータを報酬分解を用いて動的に最適化するマルチエージェントオンライン強化学習フレームワークである。
ReLMXELはメモリコントローラ内で動作し、詳細なメモリ動作メトリクスを利用して意思決定をガイドする。
多様なワークロードに対する実験的評価は、ワークロード固有のメモリアクセス動作によって駆動される改善によって、ベースライン構成よりも一貫したパフォーマンス向上を示す。
学習プロセスに説明可能性を導入することで、ReLMXELは性能を向上するだけでなく、制御決定の透明性を高め、より説明可能な適応型メモリシステム設計への道を開く。
関連論文リスト
- Adaptive Memory Admission Control for LLM Agents [9.04001220868675]
本稿では,メモリ入力を構造化決定問題として扱うフレームワークであるAdaptive Memory Admission Control (A-MAC)を提案する。
A-MACはメモリ値を5つの補完的・解釈可能な因子に分解する。
A-MACは精度のよいリコールトレードオフを実現し、F1を0.583に改善し、最先端のLLMネイティブメモリシステムに比べてレイテンシを31%削減した。
論文 参考訳(メタデータ) (2026-03-04T19:32:02Z) - Mem-T: Densifying Rewards for Long-Horizon Memory Agents [23.19373149519922]
我々は,動的更新やストリーミング入力によるマルチターン検索を行うために,軽量な階層型メモリデータベースと対話する自律メモリエージェントMem-Tを紹介する。
また,木誘導型強化学習フレームワークであるMoT-GRPOを提案する。
論文 参考訳(メタデータ) (2026-01-30T14:23:33Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Think Before You Act: Decision Transformers with Working Memory [44.18926449252084]
決定変換器に基づく意思決定エージェントは、複数のタスクにまたがる一般化能力を示している。
この非効率性は、モデルがトレーニングを通してパラメータの振る舞いを記憶する忘れ現象に起因していると我々は主張する。
ダウンストリームタスクの情報を格納、ブレンド、検索するためのワーキングメモリモジュールを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。