論文の概要: Custom Tailored Suite of Random Forests for Prefetcher Adaptation
- arxiv url: http://arxiv.org/abs/2008.00176v1
- Date: Sat, 1 Aug 2020 05:43:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 01:12:11.917435
- Title: Custom Tailored Suite of Random Forests for Prefetcher Adaptation
- Title(参考訳): 捕食者適応のためのランダム林の選別スイート
- Authors: Furkan Eris, Sadullah Canakci, Cansu Demirkiran, Ajay Joshi
- Abstract要約: SuitAPはハードウェアのプレフェッチャーアダプタで、ランダムなフォレストを使って実行時に各メモリレベルでどのプレフェッチャーをオンすべきかを判断する。
プリフェッチのない設計と比較して、SwitAPを使うことで、12KBのオーバーヘッドを持つSPEC 2017スイートから生成されるトレース平均で、IPCを46%改善する。
- 参考スコア(独自算出の注目度): 2.466065249430994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To close the gap between memory and processors, and in turn improve
performance, there has been an abundance of work in the area of
data/instruction prefetcher designs. Prefetchers are deployed in each level of
the memory hierarchy, but typically, each prefetcher gets designed without
comprehensively accounting for other prefetchers in the system. As a result,
these individual prefetcher designs do not always complement each other, and
that leads to low average performance gains and/or many negative outliers. In
this work, we propose SuitAP (Suite of random forests for Adaptation of
Prefetcher system configuration), which is a hardware prefetcher adapter that
uses a suite of random forests to determine at runtime which prefetcher should
be ON at each memory level, such that they complement each other. Compared to a
design with no prefetchers, using SuitAP we improve IPC by 46% on average
across traces generated from SPEC2017 suite with 12KB overhead. Moreover, we
also reduce negative outliers using SuitAP.
- Abstract(参考訳): メモリとプロセッサ間のギャップを埋め、パフォーマンスを向上させるために、データ/インストラクションプリフィッシャー設計の分野では、多くの作業が続けられている。
プリフェッチはメモリ階層の各レベルにデプロイされるが、通常、各プリフェッチはシステム内の他のプリフェッチを包括的に考慮せずに設計される。
結果として、これらの個別のプレフィッシャー設計は必ずしも相補的ではなく、平均的な性能向上や多くの負の外れ値をもたらす。
本研究では,ランダムフォレストを用いて,各メモリレベルでどのプリフェッチャーをオンにすべきかを実行時に決定し,それらを補完するハードウェアプリフェッチャーアダプタであるS SuitAP(Suite of random Forests for Adaptation of Prefetcher system configuration)を提案する。
プリフェッチのない設計と比較して、S SuitAPを使うことで、12KBのオーバーヘッドを持つSPEC2017スイートから生成されるトレースの平均で、IPCを46%改善する。
また,S SuitAP を用いた負の外れ値も低減する。
関連論文リスト
- Rewarded soups: towards Pareto-optimal alignment by interpolating
weights fine-tuned on diverse rewards [101.7246658985579]
ファンデーションモデルは、最初は大量の教師なしデータセットで事前トレーニングされ、次にラベル付きデータで微調整される。
多様な報酬の不均一性を多政学的戦略に従って受け入れることを提案する。
我々は,テキスト・ツー・テキスト(要約,Q&A,補助アシスタント,レビュー),テキスト・イメージ(画像キャプション,テキスト・ツー・イメージ生成,視覚的グラウンド,VQA)タスク,制御(移動)タスクに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2023-06-07T14:58:15Z) - AdaNPC: Exploring Non-Parametric Classifier for Test-Time Adaptation [64.9230895853942]
ドメインの一般化は、ターゲットのドメイン情報を活用することなく、任意に困難にすることができる。
この問題に対処するためにテスト時適応(TTA)手法が提案されている。
本研究では,テスト時間適応(AdaNPC)を行うためにNon-Parametricを採用する。
論文 参考訳(メタデータ) (2023-04-25T04:23:13Z) - PerAda: Parameter-Efficient and Generalizable Federated Learning
Personalization with Guarantees [72.7640995165023]
pFLのパラメータ蒸留・分配フレームワークであるPerAdaについて述べる。
PerAdaは、事前訓練されたモデルのパワーによってコストを削減し、アダプタから少数の追加パラメータを更新し、通信する。
PerAdaは競争性能を示す(CIFAR-Cサンプルの5.23%)。
論文 参考訳(メタデータ) (2023-02-13T19:00:37Z) - PI is back! Switching Acquisition Functions in Bayesian Optimization [10.014619543479876]
我々は、期待された改善(EI)と改善の確率(PI)を取得関数としてSMAC3をベンチマークする。
1つのスケジュールは、EIの爆発的な動作を初期最適化ステップで使用することを目的としており、最終ステップでより良い利用のためにPIに切り替える。
その結果,最適化予算の最初の25%をEIに割り当て,最後の75%をPIに割り当てるスケジュールは信頼性の高いデフォルトであることが示唆された。
論文 参考訳(メタデータ) (2022-11-02T19:49:03Z) - SparseAdapter: An Easy Approach for Improving the Parameter-Efficiency
of Adapters [96.52807311742198]
我々は、ネットワークプルーニングのレンズを通して、アダプタのパラメータ効率を再検討する。
スパース比が最大80%に達すると、SparseAdapterは標準のAdapterよりも同等あるいは優れたパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2022-10-09T15:28:48Z) - Adaptive Private-K-Selection with Adaptive K and Application to
Multi-label PATE [19.344510696808282]
我々は、差分的にプライベートなトップ$k$選択のためのエンドツーエンドのRenyi DPベースのフレームワークを提供する。
提案手法は,従来のトップ$選択アルゴリズムと比較して,プライバシとユーティリティのトレードオフを改善していることを示す。
論文 参考訳(メタデータ) (2022-03-30T07:11:01Z) - Puppeteer: A Random Forest-based Manager for Hardware Prefetchers across
the Memory Hierarchy [1.5049442691806052]
そこで我々はPuppeteerを,ランダムなフォレスト回帰器のスイートを用いて,メモリ階層の各レベルにおいてどのプレフェッシャーをオンすべきかを実行時に決定するハードウェアプレフェッシャーマネージャとして提案する。
Puppeteerを使うことで、1 Core (1C) で46.4%、4 Core (4C) で25.8%、SPEC 2017 SPEC2006と10KBのオーバーヘッドを持つクラウドスイートで平均して8 Core (8C) プロセッサで11.9%改善できる。
論文 参考訳(メタデータ) (2022-01-28T10:25:12Z) - PredProp: Bidirectional Stochastic Optimization with Precision Weighted
Predictive Coding [1.5229257192293197]
予測符号化ネットワーク(PCN)における重みと状態の最適化手法であるPredPropを提案する。
PredPropは勾配降下による推論と学習に対処し、近似曲率でパラメータを適応的に更新する。
我々は、高密度デコーダネットワークと単純な画像ベンチマークデータセットのコンテキストにおいて、PredPropの有効性を実証する。
論文 参考訳(メタデータ) (2021-11-16T21:43:15Z) - Control Variates for Slate Off-Policy Evaluation [112.35528337130118]
多次元動作を伴うバッチ化されたコンテキスト帯域データから政治外評価の問題について検討する。
我々は, PIと自己正規化PIの双方に対して, リスク改善を保証した新しい推定器を得る。
論文 参考訳(メタデータ) (2021-06-15T06:59:53Z) - Gradient Masked Federated Optimization [5.858642952428615]
Federated Averaging (FedAVG)は、その単純さと通信オーバーヘッドが低いため、最も人気のあるフェデレーション学習アルゴリズムになりました。
我々は、FedAVGが参加するクライアント間でオプティマを縫合する傾向にあることを示す。
クライアント全体にマスクされたグラデーションを含めるためのFedAVGアルゴリズムの修正を提案し、それらを使用して追加のサーバモデル更新を行います。
論文 参考訳(メタデータ) (2021-04-21T02:45:47Z) - ConVEx: Data-Efficient and Few-Shot Slot Labeling [72.00513667636801]
ConVExはスロットラベルダイアログタスクのための効率的な事前学習と微調整のニューラルアプローチである。
ダイアログスロットラベリングのための多種多様なドメインとデータセットを対象に,ConVExの最先端性能について報告する。
論文 参考訳(メタデータ) (2020-10-22T15:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。