論文の概要: Custom Tailored Suite of Random Forests for Prefetcher Adaptation
- arxiv url: http://arxiv.org/abs/2008.00176v1
- Date: Sat, 1 Aug 2020 05:43:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 01:12:11.917435
- Title: Custom Tailored Suite of Random Forests for Prefetcher Adaptation
- Title(参考訳): 捕食者適応のためのランダム林の選別スイート
- Authors: Furkan Eris, Sadullah Canakci, Cansu Demirkiran, Ajay Joshi
- Abstract要約: SuitAPはハードウェアのプレフェッチャーアダプタで、ランダムなフォレストを使って実行時に各メモリレベルでどのプレフェッチャーをオンすべきかを判断する。
プリフェッチのない設計と比較して、SwitAPを使うことで、12KBのオーバーヘッドを持つSPEC 2017スイートから生成されるトレース平均で、IPCを46%改善する。
- 参考スコア(独自算出の注目度): 2.466065249430994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To close the gap between memory and processors, and in turn improve
performance, there has been an abundance of work in the area of
data/instruction prefetcher designs. Prefetchers are deployed in each level of
the memory hierarchy, but typically, each prefetcher gets designed without
comprehensively accounting for other prefetchers in the system. As a result,
these individual prefetcher designs do not always complement each other, and
that leads to low average performance gains and/or many negative outliers. In
this work, we propose SuitAP (Suite of random forests for Adaptation of
Prefetcher system configuration), which is a hardware prefetcher adapter that
uses a suite of random forests to determine at runtime which prefetcher should
be ON at each memory level, such that they complement each other. Compared to a
design with no prefetchers, using SuitAP we improve IPC by 46% on average
across traces generated from SPEC2017 suite with 12KB overhead. Moreover, we
also reduce negative outliers using SuitAP.
- Abstract(参考訳): メモリとプロセッサ間のギャップを埋め、パフォーマンスを向上させるために、データ/インストラクションプリフィッシャー設計の分野では、多くの作業が続けられている。
プリフェッチはメモリ階層の各レベルにデプロイされるが、通常、各プリフェッチはシステム内の他のプリフェッチを包括的に考慮せずに設計される。
結果として、これらの個別のプレフィッシャー設計は必ずしも相補的ではなく、平均的な性能向上や多くの負の外れ値をもたらす。
本研究では,ランダムフォレストを用いて,各メモリレベルでどのプリフェッチャーをオンにすべきかを実行時に決定し,それらを補完するハードウェアプリフェッチャーアダプタであるS SuitAP(Suite of random Forests for Adaptation of Prefetcher system configuration)を提案する。
プリフェッチのない設計と比較して、S SuitAPを使うことで、12KBのオーバーヘッドを持つSPEC2017スイートから生成されるトレースの平均で、IPCを46%改善する。
また,S SuitAP を用いた負の外れ値も低減する。
関連論文リスト
- Accelerating Direct Preference Optimization with Prefix Sharing [0.9194662383948566]
我々は、選択された応答を1つのシーケンスとして処理し、共有したプレフィックスを1つのシーケンスとして処理する新しいテクニックである、選好チューニングのためのプレフィックス共有を導入する。
コンバージェンスに影響を与えることなく,一般的なDPOデータセットのトレーニングスループットを1.1$-1.5times$改善する。
私たちの研究は、より広い範囲のアプリケーションやモデルサイズに対して、好みベースの微調整をより使いやすくすることに貢献しています。
論文 参考訳(メタデータ) (2024-10-27T02:06:17Z) - Preference Diffusion for Recommendation [50.8692409346126]
DMベースのレコメンデータに適した最適化対象であるPreferDiffを提案する。
PreferDiffは、BPRをログライクなランキング目標に変換することで、ユーザの好みをよりよく把握する。
これはDMベースのレコメンデーション向けに特別に設計された、パーソナライズされたランキングの損失である。
論文 参考訳(メタデータ) (2024-10-17T01:02:04Z) - Pear: Pruning and Sharing Adapters in Visual Parameter-Efficient Fine-Tuning [6.068296063531189]
アダプタは冗長性を示し、不要なストレージオーバーヘッドと性能の低下につながる。
本研究では,事前学習した視覚基盤モデルの高精度な微調整を行うための,新しいアダプタ・プルーニングフレームワークPrune and Share (Pear)を提案する。
論文 参考訳(メタデータ) (2024-09-29T15:18:38Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Rewarded soups: towards Pareto-optimal alignment by interpolating
weights fine-tuned on diverse rewards [101.7246658985579]
ファンデーションモデルは、最初は大量の教師なしデータセットで事前トレーニングされ、次にラベル付きデータで微調整される。
多様な報酬の不均一性を多政学的戦略に従って受け入れることを提案する。
我々は,テキスト・ツー・テキスト(要約,Q&A,補助アシスタント,レビュー),テキスト・イメージ(画像キャプション,テキスト・ツー・イメージ生成,視覚的グラウンド,VQA)タスク,制御(移動)タスクに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2023-06-07T14:58:15Z) - PerAda: Parameter-Efficient Federated Learning Personalization with Generalization Guarantees [95.87604231887353]
既存のpFL手法は高い通信コストと計算コストをもたらすか、テスト通信に弱い。
PerAdaではパラメータ蒸留とpFL pFLが特に試験時間分布において優れた性能を示す。
私たちのコードはhttps://github.com/NV/PerAda.comで公開されています。
論文 参考訳(メタデータ) (2023-02-13T19:00:37Z) - Puppeteer: A Random Forest-based Manager for Hardware Prefetchers across
the Memory Hierarchy [1.5049442691806052]
そこで我々はPuppeteerを,ランダムなフォレスト回帰器のスイートを用いて,メモリ階層の各レベルにおいてどのプレフェッシャーをオンすべきかを実行時に決定するハードウェアプレフェッシャーマネージャとして提案する。
Puppeteerを使うことで、1 Core (1C) で46.4%、4 Core (4C) で25.8%、SPEC 2017 SPEC2006と10KBのオーバーヘッドを持つクラウドスイートで平均して8 Core (8C) プロセッサで11.9%改善できる。
論文 参考訳(メタデータ) (2022-01-28T10:25:12Z) - PredProp: Bidirectional Stochastic Optimization with Precision Weighted
Predictive Coding [1.5229257192293197]
予測符号化ネットワーク(PCN)における重みと状態の最適化手法であるPredPropを提案する。
PredPropは勾配降下による推論と学習に対処し、近似曲率でパラメータを適応的に更新する。
我々は、高密度デコーダネットワークと単純な画像ベンチマークデータセットのコンテキストにおいて、PredPropの有効性を実証する。
論文 参考訳(メタデータ) (2021-11-16T21:43:15Z) - Control Variates for Slate Off-Policy Evaluation [112.35528337130118]
多次元動作を伴うバッチ化されたコンテキスト帯域データから政治外評価の問題について検討する。
我々は, PIと自己正規化PIの双方に対して, リスク改善を保証した新しい推定器を得る。
論文 参考訳(メタデータ) (2021-06-15T06:59:53Z) - ConVEx: Data-Efficient and Few-Shot Slot Labeling [72.00513667636801]
ConVExはスロットラベルダイアログタスクのための効率的な事前学習と微調整のニューラルアプローチである。
ダイアログスロットラベリングのための多種多様なドメインとデータセットを対象に,ConVExの最先端性能について報告する。
論文 参考訳(メタデータ) (2020-10-22T15:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。