論文の概要: Athena: Synergizing Data Prefetching and Off-Chip Prediction via Online Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2601.17615v1
- Date: Sat, 24 Jan 2026 22:39:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.09261
- Title: Athena: Synergizing Data Prefetching and Off-Chip Prediction via Online Reinforcement Learning
- Title(参考訳): Athena: オンライン強化学習によるデータのプレフェッチとオフチップ予測の同期化
- Authors: Rahul Bera, Zhenrong Lang, Caroline Hengartner, Konstantinos Kanellopoulos, Rakesh Kumar, Mohammad Sadrosadati, Onur Mutlu,
- Abstract要約: プリフェッチとオフチップ予測は、高性能プロセッサで長いメモリアクセスレイテンシを隠すための2つの手法である。
我々のゴールは、オフチップ予測器を様々なキャッシュレベルで採用した複数のプリフェッチと協調させることを自律的に学習できる総合的なフレームワークを設計することである。
我々は,プレフェッチとオフチップ予測器(OCP)の協調を強化学習(RL)問題としてモデル化する,Athenaと呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 7.760107607264796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prefetching and off-chip prediction are two techniques proposed to hide long memory access latencies in high-performance processors. In this work, we demonstrate that: (1) prefetching and off-chip prediction often provide complementary performance benefits, yet (2) naively combining them often fails to realize their full performance potential, and (3) existing prefetcher control policies leave significant room for performance improvement behind. Our goal is to design a holistic framework that can autonomously learn to coordinate an off-chip predictor with multiple prefetchers employed at various cache levels. To this end, we propose a new technique called Athena, which models the coordination between prefetchers and off-chip predictor (OCP) as a reinforcement learning (RL) problem. Athena acts as the RL agent that observes multiple system-level features (e.g., prefetcher/OCP accuracy, bandwidth usage) over an epoch of program execution, and uses them as state information to select a coordination action (i.e., enabling the prefetcher and/or OCP, and adjusting prefetcher aggressiveness). At the end of every epoch, Athena receives a numerical reward that measures the change in multiple system-level metrics (e.g., number of cycles taken to execute an epoch). Athena uses this reward to autonomously and continuously learn a policy to coordinate prefetchers with OCP. Our extensive evaluation using a diverse set of memory-intensive workloads shows that Athena consistently outperforms prior state-of-the-art coordination policies across a wide range of system configurations with various combinations of underlying prefetchers, OCPs, and main memory bandwidths, while incurring only modest storage overhead. Athena is freely available at https://github.com/CMU-SAFARI/Athena.
- Abstract(参考訳): プリフェッチとオフチップ予測は、高性能プロセッサで長いメモリアクセスレイテンシを隠すための2つの手法である。
本研究では,(1)プリフェッチとオフチップ予測は相補的な性能向上をもたらすことが多いが,(2)ネーティブな組み合わせは完全な性能向上を実現するのに失敗することが多く,(3)既存のプリフェッチャーコントロールポリシーは,性能改善のための大きな余地を残していることを実証する。
我々のゴールは、オフチップ予測器を様々なキャッシュレベルで採用した複数のプリフェッチ器と協調させることを自律的に学習できる全体論的なフレームワークを設計することである。
そこで本研究では,プレフェッチとオフチップ予測器(OCP)の協調を強化学習(RL)問題としてモデル化する,Athenaと呼ばれる新しい手法を提案する。
アテナは、プログラム実行のエポック上で複数のシステムレベルの特徴(例えば、プレフェッチャー/OCP精度、帯域幅使用量)を観察するRLエージェントとして機能し、それらを状態情報として、調整アクション(すなわち、プレフェッチャーおよび/またはOCPを有効にし、プレフェッチャー攻撃性を調整する)を選択する。
各エポックの終わりに、Athenaは複数のシステムレベルのメトリクス(例えば、エポックを実行するのに要するサイクルの数)の変化を測定する数値的な報酬を受け取る。
Athenaはこの報酬を自律的かつ継続的な学習に利用し、プレフェッチをOCPと協調させるポリシーを学習する。
多様なメモリ集約型ワークロードを使用した大規模な評価では、Athenaは、基礎となるプリフェッチ、OCP、メインメモリ帯域幅の様々な組み合わせで、幅広いシステム構成における、最先端のコーディネーションポリシを一貫して上回っており、ストレージオーバーヘッドはわずかである。
Athenaはhttps://github.com/CMU-SAFARI/Athenaで無料で入手できる。
関連論文リスト
- On the Practice of Deep Hierarchical Ensemble Network for Ad Conversion Rate Prediction [14.649184507551436]
本稿では,DHENを単一のバックボーンモデルアーキテクチャとして用いたマルチタスク学習フレームワークを提案する。
我々は,CVR予測のために,オンサイトリアルタイムユーザ行動シーケンスとオフサイト変換イベントシーケンスの両方を構築した。
本手法は,事前学習したユーザパーソナライズ機能付き単一機能横断モジュールと比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-04-10T23:41:34Z) - PAUSE: Low-Latency and Privacy-Aware Active User Selection for Federated Learning [49.02872047060618]
フェデレートラーニング(FL)は、エッジデバイスが、潜在的にプライベートなデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
FLには2つの重要な課題がある。第一に、時間とともにプライバシーの漏洩が蓄積され、第二に、通信のレイテンシである。
本稿では,アクティブユーザ選択によるプライバシー漏洩と通信遅延の蓄積を共同で解決する手法を提案する。
論文 参考訳(メタデータ) (2025-03-17T13:50:35Z) - A Universal Framework for Compressing Embeddings in CTR Prediction [68.27582084015044]
本稿では,事前学習した埋め込みを定量化することにより,埋め込みテーブルを圧縮するモデル非依存型埋め込み圧縮(MEC)フレームワークを提案する。
まず、高頻度特徴と低周波特徴のバランスをとるために、人気重み付け正規化を適用します。
3つのデータセットの実験により,提案手法はメモリ使用量を50倍以上削減し,レコメンデーション性能を維持・改善する。
論文 参考訳(メタデータ) (2025-02-21T10:12:34Z) - Learning towards Synchronous Network Memorizability and Generalizability
for Continual Segmentation across Multiple Sites [52.84959869494459]
臨床実践では、複数のサイトから連続的なデータストリームを継続的に学習するために、セグメンテーションネットワークが必要であることが多い。
既存の方法は、通常、以前のサイトのネットワーク記憶可能性や、目に見えないサイトの一般化可能性に制限される。
本稿では,SMG学習フレームワークの提案により,同期記憶可能性と一般化可能性の問題に取り組むことを目的とする。
論文 参考訳(メタデータ) (2022-06-14T13:04:36Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Pythia: A Customizable Hardware Prefetching Framework Using Online
Reinforcement Learning [11.041331541764619]
本稿では,複数種類のプログラムコンテキストとシステムレベルのフィードバック情報を用いてプリフェッチを学習する包括的プリフェッチアルゴリズムの設計を事例とする。
要求要求毎に、Pythiaは複数の異なる種類のプログラムコンテキスト情報を観察し、事前決定を行う。
プリフェッチ決定毎に、Pythiaは現在のメモリ帯域幅使用量でプリフェッチ品質を評価する数値的な報酬を受け取る。
論文 参考訳(メタデータ) (2021-09-24T15:27:34Z) - APS: Active Pretraining with Successor Features [96.24533716878055]
非エントロピーと後継指標であるHansenFastを再解釈して組み合わせることで、難解な相互情報を効率的に最適化できることを示す。
提案手法は,非エントロピーを用いて環境を探索し,探索したデータを効率的に活用して動作を学習する。
論文 参考訳(メタデータ) (2021-08-31T16:30:35Z) - Superiority of Simplicity: A Lightweight Model for Network Device
Workload Prediction [58.98112070128482]
本稿では,歴史観測に基づく時系列予測のための軽量な解を提案する。
ニューラルネットワークと平均予測器という2つのモデルからなる異種アンサンブル法で構成されている。
利用可能なFedCSIS 2020チャレンジデータセットの総合的なR2$スコア0.10を達成している。
論文 参考訳(メタデータ) (2020-07-07T15:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。