論文の概要: Distributional Reinforcement Learning with Information Bottleneck for Uncertainty-Aware DRAM Equalization
- arxiv url: http://arxiv.org/abs/2603.04768v1
- Date: Thu, 05 Mar 2026 03:34:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.054291
- Title: Distributional Reinforcement Learning with Information Bottleneck for Uncertainty-Aware DRAM Equalization
- Title(参考訳): 不確実性を考慮したDRAM等化のための情報ボトルネックを用いた分散強化学習
- Authors: Muhammad Usama, Dong Eui Chang,
- Abstract要約: 本稿では,Information Bottleneck潜在表現と条件付き値-アット・リスク最適化を組み合わせた分散型リスク感応型強化学習フレームワークを提案する。
本稿では,眼球図の51倍の速度アップを実現する速度歪み最適信号圧縮法を提案する。
提案するフレームワークは,検証済みの最悪の保証を伴って,生産規模の等化器最適化のための実用的なソリューションを提供することを示す。
- 参考スコア(独自算出の注目度): 8.695939803795499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equalizer parameter optimization is critical for signal integrity in high-speed memory systems operating at multi-gigabit data rates. However, existing methods suffer from computationally expensive eye diagram evaluation, optimization of expected rather than worst-case performance, and absence of uncertainty quantification for deployment decisions. In this paper, we propose a distributional risk-sensitive reinforcement learning framework integrating Information Bottleneck latent representations with Conditional Value-at-Risk optimization. We introduce rate-distortion optimal signal compression achieving 51 times speedup over eye diagrams while quantifying epistemic uncertainty through Monte Carlo dropout. Distributional reinforcement learning with quantile regression enables explicit worst-case optimization, while PAC-Bayesian regularization certifies generalization bounds. Experimental validation on 2.4 million waveforms from eight memory units demonstrated mean improvements of 37.1\% and 41.5\% for 4-tap and 8-tap equalizer configurations with worst-case guarantees of 33.8\% and 38.2\%, representing 80.7\% and 89.1\% improvements over Q-learning baselines. The framework achieved 62.5\% high-reliability classification eliminating manual validation for most configurations. These results suggest the proposed framework provides a practical solution for production-scale equalizer optimization with certified worst-case guarantees.
- Abstract(参考訳): 等化器パラメータの最適化は、マルチギガビットデータレートで動作する高速メモリシステムにおける信号整合性にとって重要である。
しかし、既存の手法では、計算に費用がかかるアイダイアグラムの評価、最悪の場合よりも期待される性能の最適化、展開決定の不確実な定量化の欠如に悩まされている。
本稿では,Information Bottleneck潜在表現と条件付き値-アット・リスク最適化を組み合わせた分散型リスク感性強化学習フレームワークを提案する。
本稿では,モンテカルロ液滴による疫学的不確実性を定量化しながら,51倍の速度アップを実現する速度歪み最適信号圧縮を導入する。
PAC-Bayesian正則化は一般化境界を証明しているのに対し、量子回帰を用いた分布強化学習は明らかに最悪のケース最適化を可能にする。
8つのメモリユニットから240万の波形を実験的に検証したところ、Qラーニングベースラインよりも平均37.1\%と41.5\%、最悪のケース保証は33.8\%、38.2\%で、Qラーニングベースラインよりも80.7\%、89.1\%の改善が見られた。
このフレームワークは、ほとんどの構成の手動検証を排除し、62.5\%の高信頼性の分類を達成した。
これらの結果から,本提案フレームワークは,最低ケース保証を保証した実運用規模の等化器最適化のための実用的ソリューションを提供する可能性が示唆された。
関連論文リスト
- ODAR: Principled Adaptive Routing for LLM Reasoning via Active Inference [60.958331943869126]
ODAR-Expertは、原則化されたリソース割り当てによる精度と効率のトレードオフを最適化する適応的なルーティングフレームワークである。
我々は、MATHの98.2%の精度、HumanityのLast Examの54.8%を含む、強く一貫した利得を示している。
論文 参考訳(メタデータ) (2026-02-27T05:22:01Z) - HQP: Sensitivity-Aware Hybrid Quantization and Pruning for Ultra-Low-Latency Edge AI Inference [0.0]
相乗的モデル加速を実現するために設計されたHybrid Quantization and Pruning (HQP)フレームワーク。
HQPフレームワークは3.12倍の推論速度向上と55%のモデルサイズ縮小を実現している。
論文 参考訳(メタデータ) (2026-02-02T18:17:45Z) - CAGE: Curvature-Aware Gradient Estimation For Accurate Quantization-Aware Training [73.46600457802693]
本稿では,量子化による損失に対応する新しい手法を提案する。
CAGEは、同様の計算コストで、精度の観点から最先端の手法を大幅に改善する。
LlamaモデルのQAT事前トレーニングでは、CAGEは4ビット(W4A4)で達成された精度と事前のベストメソッドとを一致させる。
論文 参考訳(メタデータ) (2025-10-21T16:33:57Z) - Systematic Optimization of Open Source Large Language Models for Mathematical Reasoning [1.8254074486719114]
本稿では,数学的推論タスクのための微調整モデルパラメータについて実践的検討を行う。
数学的推論タスクに関する5つの最先端モデルに対して、水平に最適化されたフレームワークが導入された。
論文 参考訳(メタデータ) (2025-09-08T21:31:43Z) - Advanced Multi-Architecture Deep Learning Framework for BIRADS-Based Mammographic Image Retrieval: Comprehensive Performance Analysis with Super-Ensemble Optimization [0.0]
マンモグラフィ画像検索システムでは、5つの異なるクラスにまたがる正確なBIRADSカテゴリマッチングが必要である。
現在の医用画像検索研究は方法論的限界に悩まされている。
論文 参考訳(メタデータ) (2025-08-06T18:05:18Z) - Deep Reinforcement Learning-Based DRAM Equalizer Parameter Optimization Using Latent Representations [4.189643331553922]
本稿では,学習した潜時信号表現を用いた効率的な信号整合性評価のためのデータ駆動型フレームワークを提案する。
業界標準のダイナミックランダムアクセスメモリ波形の適用により、窓面積が大幅に改善された。
論文 参考訳(メタデータ) (2025-07-03T06:53:51Z) - EfficientLLM: Efficiency in Large Language Models [64.3537131208038]
大規模言語モデル(LLM)は大きな進歩を導いてきたが、その増加とコンテキストウィンドウは計算、エネルギー、金銭的コストを禁止している。
本稿では,新しいベンチマークであるEfficientLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-20T02:27:08Z) - Pushing the Limits of Low-Bit Optimizers: A Focus on EMA Dynamics [64.62231094774211]
ステートフル(例えばアダム)は、最適収束を達成するために、モデルサイズを2倍も補助情報を維持する。
SOLOにより、アダムスタイルは3ビットまたは2ビットの精度で量子化された状態を維持することができる。
したがって、SOLOはAdamスタイルにシームレスに適用でき、精度の低下を最小限に抑えることができる。
論文 参考訳(メタデータ) (2025-05-01T06:47:45Z) - Optimization of embeddings storage for RAG systems using quantization and dimensionality reduction techniques [0.0]
本研究では,float8量子化により,性能劣化を最小限に抑えつつ,ストレージの4倍の低減を実現することを示す。
PCAは最も効果的な次元削減技術として出現する。
本稿では,最適構成を特定するために,性能記憶トレードオフ空間を可視化する手法を提案する。
論文 参考訳(メタデータ) (2025-04-30T18:20:16Z) - Benchmarking Reasoning Robustness in Large Language Models [76.79744000300363]
新規データや不完全データでは,性能が著しく低下することがわかった。
これらの結果は、厳密な論理的推論に対するリコールへの依存を浮き彫りにした。
本稿では,情報不足によって引き起こされる幻覚を利用して推論ギャップを明らかにする,Math-RoBと呼ばれる新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-03-06T15:36:06Z) - Dynamic Noise Preference Optimization for LLM Self-Improvement via Synthetic Data [51.62162460809116]
我々は、イテレーション間で一貫した改善を保証するために、動的ノイズ優先最適化(DNPO)を導入します。
Zephyr-7Bでの実験では、DNPOは既存の手法を一貫して上回り、平均性能は2.6%向上した。
DNPOは、GPT-4評価のベースラインに比べて29.4%のウィンロス率差で、モデル生成データの品質が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-02-08T01:20:09Z) - Towards a Competitive End-to-End Speech Recognition for CHiME-6 Dinner
Party Transcription [73.66530509749305]
本稿では,難しい場合であっても,ハイブリッドベースラインに近い性能を示すエンドツーエンドアプローチについて論じる。
CTC-Attention と RNN-Transducer のアプローチと RNN と Transformer のアーキテクチャを比較し,解析する。
RNN-Transducerをベースとしたベストエンド・ツー・エンドモデルでは、ビームサーチの改善とともに、LF-MMI TDNN-F CHiME-6 Challengeのベースラインよりも品質が3.8%向上した。
論文 参考訳(メタデータ) (2020-04-22T19:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。