論文の概要: Deep Reinforcement Learning-Based DRAM Equalizer Parameter Optimization Using Latent Representations
- arxiv url: http://arxiv.org/abs/2507.02365v1
- Date: Thu, 03 Jul 2025 06:53:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.780698
- Title: Deep Reinforcement Learning-Based DRAM Equalizer Parameter Optimization Using Latent Representations
- Title(参考訳): 潜時表現を用いた深部強化学習に基づくDRAM等化器パラメータ最適化
- Authors: Muhammad Usama, Dong Eui Chang,
- Abstract要約: 本稿では,学習した潜時信号表現を用いた効率的な信号整合性評価のためのデータ駆動型フレームワークを提案する。
業界標準のダイナミックランダムアクセスメモリ波形の適用により、窓面積が大幅に改善された。
- 参考スコア(独自算出の注目度): 4.189643331553922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equalizer parameter optimization for signal integrity in high-speed Dynamic Random Access Memory systems is crucial but often computationally demanding or model-reliant. This paper introduces a data-driven framework employing learned latent signal representations for efficient signal integrity evaluation, coupled with a model-free Advantage Actor-Critic reinforcement learning agent for parameter optimization. The latent representation captures vital signal integrity features, offering a fast alternative to direct eye diagram analysis during optimization, while the reinforcement learning agent derives optimal equalizer settings without explicit system models. Applied to industry-standard Dynamic Random Access Memory waveforms, the method achieved significant eye-opening window area improvements: 42.7\% for cascaded Continuous-Time Linear Equalizer and Decision Feedback Equalizer structures, and 36.8\% for Decision Feedback Equalizer-only configurations. These results demonstrate superior performance, computational efficiency, and robust generalization across diverse Dynamic Random Access Memory units compared to existing techniques. Core contributions include an efficient latent signal integrity metric for optimization, a robust model-free reinforcement learning strategy, and validated superior performance for complex equalizer architectures.
- Abstract(参考訳): 高速な動的ランダムアクセスメモリシステムにおける信号整合性に対する等化器パラメータの最適化は重要であるが、しばしば計算的に要求される。
本稿では、学習した潜時信号表現を用いて効率的な信号整合性評価を行い、パラメータ最適化のためのモデルレスアドバンテージ・アクター・クリティカル強化学習エージェントを組み込んだデータ駆動型フレームワークを提案する。
遅延表現は重要な信号整合性を捉え、最適化中に直接眼図解析に代わる高速な代替手段を提供し、強化学習エージェントは明示的なシステムモデルなしで最適な等化器設定を導出する。
業界標準の動的ランダムアクセスメモリ波形に適用すると、連続時間線形等化器と決定フィードバック等化器の42.7 %、決定フィードバック等化器のみの構成の36.8 %という大きな開窓窓面積の改善が達成された。
これらの結果は、従来の手法と比較して、様々な動的ランダムアクセスメモリユニットにおける性能、計算効率、ロバストな一般化が優れていることを示す。
コアコントリビューションには、最適化のための効率的な遅延信号整合性メトリック、堅牢なモデルフリー強化学習戦略、複雑な等化器アーキテクチャにおける優れた性能の検証が含まれている。
関連論文リスト
- Graph-Based Spectral Decomposition for Parameter Coordination in Language Model Fine-Tuning [5.69600290598441]
目標は、訓練中の微調整効率と構造意識の両方を改善することである。
重み付きグラフを構築し、周波数領域モデリングを可能にするためにラプラシアンスペクトル分解を適用した。
最適化フェーズ中にスペクトルフィルタリング機構を導入し、モデルのトレーニング安定性と収束挙動を向上させる。
論文 参考訳(メタデータ) (2025-04-28T08:42:35Z) - Memory-Efficient Optimization with Factorized Hamiltonian Descent [11.01832755213396]
本稿では,この課題に対処するためのメモリ効率因子化手法を取り入れた新しい適応型H-Facを提案する。
運動量とスケーリングパラメータ推定器の両方にランク1パラメータ化を適用することで、H-Facはメモリコストをサブ線形レベルに削減する。
我々はハミルトン力学から導かれる原理に基づいてアルゴリズムを開発し、最適化力学と収束保証において堅牢な理論的基盤を提供する。
論文 参考訳(メタデータ) (2024-06-14T12:05:17Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Fine-Tuning Adaptive Stochastic Optimizers: Determining the Optimal Hyperparameter $ε$ via Gradient Magnitude Histogram Analysis [0.7366405857677226]
我々は、損失の大きさの経験的確率密度関数に基づく新しい枠組みを導入し、これを「緩やかな等級ヒストグラム」と呼ぶ。
そこで本稿では, 最適安全のための精密かつ高精度な探索空間を自動推定するために, 勾配等級ヒストグラムを用いた新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-20T04:34:19Z) - Break a Lag: Triple Exponential Moving Average for Enhanced Optimization [2.0199251985015434]
本稿では,三重指数移動平均のパワーを利用する新しい最適化手法であるFAMEを紹介する。
FAMEはデータダイナミクスに対する応答性を高め、トレンド識別ラグを緩和し、学習効率を最適化する。
包括的評価は、画像分類、オブジェクト検出、セマンティックセグメンテーションを含む様々なコンピュータビジョンタスクを含み、FAMEを30の異なるアーキテクチャに統合する。
論文 参考訳(メタデータ) (2023-06-02T10:29:33Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。