論文の概要: Fine-Grained Address Segmentation for Attention-Based Variable-Degree
Prefetching
- arxiv url: http://arxiv.org/abs/2205.02269v1
- Date: Sun, 1 May 2022 05:30:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 15:33:17.399171
- Title: Fine-Grained Address Segmentation for Attention-Based Variable-Degree
Prefetching
- Title(参考訳): 注意度可変プリフェッチのための細粒度アドレスセグメンテーション
- Authors: Pengmiao Zhang, Ajitesh Srivastava, Anant V. Nori, Rajgopal Kannan,
Viktor K. Prasanna
- Abstract要約: プレフェッチをモデル化する新しい方法であるTransFetchを提案する。
語彙サイズを小さくするために、細粒度アドレス分割を入力として使用する。
将来のアドレスの順序のない集合を予測するために、複数の出力にデルタビットマップを使用する。
- 参考スコア(独自算出の注目度): 10.128730975303407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms have shown potential to improve prefetching
performance by accurately predicting future memory accesses. Existing
approaches are based on the modeling of text prediction, considering
prefetching as a classification problem for sequence prediction. However, the
vast and sparse memory address space leads to large vocabulary, which makes
this modeling impractical. The number and order of outputs for multiple cache
line prefetching are also fundamentally different from text prediction. We
propose TransFetch, a novel way to model prefetching. To reduce vocabulary
size, we use fine-grained address segmentation as input. To predict unordered
sets of future addresses, we use delta bitmaps for multiple outputs. We apply
an attention-based network to learn the mapping between input and output.
Prediction experiments demonstrate that address segmentation achieves 26% - 36%
higher F1-score than delta inputs and 15% - 24% higher F1-score than page &
offset inputs for SPEC 2006, SPEC 2017, and GAP benchmarks. Simulation results
show that TransFetch achieves 38.75% IPC improvement compared with no
prefetching, outperforming the best-performing rule-based prefetcher BOP by
10.44%, and ML-based prefetcher Voyager by 6.64%.
- Abstract(参考訳): 機械学習アルゴリズムは、将来のメモリアクセスを正確に予測することで、プリフェッチ性能を改善する可能性がある。
既存のアプローチはテキスト予測のモデリングに基づいており、プリフェッチをシーケンス予測の分類問題として考慮している。
しかし、広大なメモリアドレス空間は大きな語彙をもたらすため、このモデリングは現実的ではない。
複数のキャッシュラインプリフェッチのための出力の数と順序も、テキスト予測と根本的に異なる。
プレフェッチをモデル化する新しい方法であるTransFetchを提案する。
語彙サイズを小さくするために,詳細なアドレスセグメンテーションを入力として使用する。
将来のアドレスの無順序セットを予測するために、複数の出力にデルタビットマップを使用します。
入力と出力のマッピングを学ぶために注意に基づくネットワークを適用する。
予測実験により、アドレスセグメンテーションはデルタ入力よりも26%から36%高いF1スコア、SPEC 2006 SPEC 2017およびGAPベンチマークより15%から24%高いF1スコアを達成することが示された。
シミュレーションの結果、TransFetchはプレフェッチなしで38.75%のIPC改善を実現し、最も優れたルールベースのプレフェッチャーBOPを10.44%、MLベースのプレフェッチャーボイジャーを6.64%上回った。
関連論文リスト
- missForestPredict -- Missing data imputation for prediction settings [2.8461446020965435]
missForestPredictは、MissForest命令アルゴリズムの高速でユーザフレンドリな適応である。
missForestPredictでは、命令で使用される変数のエラー監視と制御が拡張されている。
missForestPredictは、短い計算時間内で予測設定で競合する結果を提供する。
論文 参考訳(メタデータ) (2024-07-02T17:45:46Z) - TokenUnify: Scalable Autoregressive Visual Pre-training with Mixture Token Prediction [61.295716741720284]
TokenUnifyは、ランダムトークン予測、次のトークン予測、次のトークン予測を統合する新しい事前学習手法である。
TokenUnifyと共同で,超高解像度の大規模電子顕微鏡画像データセットを構築した。
このデータセットには1億2000万以上の注釈付きボクセルが含まれており、これまでで最大のニューロンセグメンテーションデータセットとなっている。
論文 参考訳(メタデータ) (2024-05-27T05:45:51Z) - CRUXEval: A Benchmark for Code Reasoning, Understanding and Execution [36.30158138035512]
800のPython関数(3-13行)からなるベンチマークを示す。
各関数は入力出力対を持ち、入力予測と出力予測という2つの自然なタスクに繋がる。
単純なCoTと微調整方式によってベンチマークのパフォーマンスが向上するが、その解決には程遠いことを示す。
論文 参考訳(メタデータ) (2024-01-05T20:53:51Z) - AdaNPC: Exploring Non-Parametric Classifier for Test-Time Adaptation [64.9230895853942]
ドメインの一般化は、ターゲットのドメイン情報を活用することなく、任意に困難にすることができる。
この問題に対処するためにテスト時適応(TTA)手法が提案されている。
本研究では,テスト時間適応(AdaNPC)を行うためにNon-Parametricを採用する。
論文 参考訳(メタデータ) (2023-04-25T04:23:13Z) - Phases, Modalities, Temporal and Spatial Locality: Domain Specific ML
Prefetcher for Accelerating Graph Analytics [7.52191887022819]
ドメイン固有モデルを用いたグラフ解析のためのMLベースのPrefetcherであるMPGraphを提案する。
MPGraphの新しい3つの最適化: 位相遷移のソフト検出、アクセスと時間前処理のための位相固有多モードモデル。
CSTを使用すると、MPGraphは12.52-21.23%のIPC改善を実現し、最先端の非MLプレフェッチャーBOを7.5-12.03%、MLベースのプレフェッチーVoyagerとTransFetchを3.27-4.58%上回った。
論文 参考訳(メタデータ) (2022-12-10T09:14:44Z) - TransforMAP: Transformer for Memory Access Prediction [10.128730975303407]
データプリフェッチ(Data Prefetching)は、プログラムが必要とするデータを取得することで、メモリ遅延を隠蔽するテクニックである。
アドレス空間全体から学習できる強力なTransformerモデルに基づいてTransforMAPを開発した。
我々は,最先端の捕食者やISB捕食者よりも高い35.67%のMPKI改善が達成されていることを示す。
論文 参考訳(メタデータ) (2022-05-29T22:14:38Z) - Inverse is Better! Fast and Accurate Prompt for Few-shot Slot Tagging [54.557406779183495]
古典的なプロンプトのトークンをラベルにマッピングするのと異なり、スロットタイプが与えられた場合のスロット値を逆に予測する。
やや驚くべきことに、提案手法はより高速に予測できるだけでなく、効果を著しく改善する(10ショット設定で6.1F1スコア以上)。
論文 参考訳(メタデータ) (2022-04-02T15:41:19Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - BB-ML: Basic Block Performance Prediction using Machine Learning
Techniques [0.6020800302423842]
我々は,機械学習(ML)技術を用いて,より微細な粒度,すなわちBasic Block(BB)レベルでの性能予測を行う。
我々は、GPUアプリケーションの基本的なブロック実行数を外挿し、より小さな入力サイズの数から大きな入力サイズのパフォーマンスを予測するためにそれらを使用する。
我々は、より小さな入力セットでトレーニングした場合に、大きな入力セットに対する基本ブロック数を外挿する精度93.5%を達成する。
論文 参考訳(メタデータ) (2022-02-16T00:19:15Z) - Span Pointer Networks for Non-Autoregressive Task-Oriented Semantic
Parsing [55.97957664897004]
seq2seq、非自動回帰的、タスク指向を構築するための効果的なレシピは、3つのステップで発話とセマンティックフレームをマッピングする。
これらのモデルは通常、長さ予測によってボトルネックとなる。
本研究では,デコードタスクをテキスト生成からスパン予測へシフトさせる非自己回帰手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T07:02:35Z) - ProphetNet: Predicting Future N-gram for Sequence-to-Sequence
Pre-training [85.35910219651572]
本稿ではProphetNetと呼ばれる新しいシーケンス・ツー・シーケンス事前学習モデルを提案する。
将来的なn-gram予測という,新たな自己教師型目標を導入している。
我々は,CNN/DailyMail,Gigaword,SQuAD 1.1ベンチマークを用いて,抽象的な要約と質問生成タスクの実験を行った。
論文 参考訳(メタデータ) (2020-01-13T05:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。