論文の概要: A Statistical Learning Approach for Feature-Aware Task-to-Core Allocation in Heterogeneous Platforms
- arxiv url: http://arxiv.org/abs/2502.15716v1
- Date: Sun, 26 Jan 2025 16:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 20:17:19.74398
- Title: A Statistical Learning Approach for Feature-Aware Task-to-Core Allocation in Heterogeneous Platforms
- Title(参考訳): 不均一なプラットフォームにおける特徴認識型タスク・ツー・コア配置の統計的学習手法
- Authors: Mohammad Pivezhandi, Abusayeed Saifullah, Prashant Modekurthy,
- Abstract要約: タスク単位の割り当てを最適化することで、ユーザエクスペリエンスを劣化させることなく、マルチコアプラットフォームの消費電力を大幅に削減できる。
本稿では,環境モデルに最も影響を及ぼす特徴を識別する特徴選択のための統計的学習手法を提案する。
現状のLinux知事とサーマルモデリング技術を用いて実施した本実験は,相関対応タスク・ツー・コアアロケーションがエネルギー消費を最大10%減少させることを示す。
- 参考スコア(独自算出の注目度): 0.9803208397960992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing task-to-core allocation can substantially reduce power consumption in multi-core platforms without degrading user experience. However, many existing approaches overlook critical factors such as parallelism, compute intensity, and heterogeneous core types. In this paper, we introduce a statistical learning approach for feature selection that identifies the most influential features - such as core type, speed, temperature, and application-level parallelism or memory intensity - for accurate environment modeling and efficient energy optimization. Our experiments, conducted with state-of-the-art Linux governors and thermal modeling techniques, show that correlation-aware task-to-core allocation lowers energy consumption by up to 10% and reduces core temperature by up to 5 degrees Celsius compared to random core selection. Furthermore, our compressed, bootstrapped regression model improves thermal prediction accuracy by 6% while cutting model parameters by 16%, yielding an overall mean square error reduction of 61.6% relative to existing approaches. We provided results based on superscalar Intel Core i7 12th Gen processors with 14 cores, but validated our method across a diverse set of hardware platforms and effectively balanced performance, power, and thermal demands through statistical feature evaluation.
- Abstract(参考訳): タスク・ツー・コア割り当ての最適化は、ユーザエクスペリエンスを劣化させることなく、マルチコアプラットフォームの消費電力を大幅に削減できる。
しかし、既存の多くのアプローチは、並列性、計算強度、不均一なコアタイプといった重要な要素を見落としている。
本稿では,正確な環境モデリングと効率的なエネルギー最適化のために,コアタイプ,速度,温度,アプリケーションレベルの並列性やメモリ強度など,最も影響力のある特徴を識別する特徴選択のための統計的学習手法を提案する。
現状のLinux知事とサーマルモデリング技術を用いて行った実験により,相関対応タスク・ツー・コア割り当てによりエネルギー消費が最大10%減少し,コア温度がランダムコア選択に比べて50°C低下することが示された。
さらに, モデルパラメータを16%カットしながら熱予測精度を6%向上し, 従来の手法と比較して平均2乗誤差を61.6%削減した。
我々は、14コアの超スカラーIntel Core i7 12th Genプロセッサをベースとした結果を提供したが、多種多様なハードウェアプラットフォームにまたがる手法を検証し、統計的特徴評価により性能、パワー、熱的要求を効果的にバランスさせた。
関連論文リスト
- Entropy Adaptive Decoding: Dynamic Model Switching for Efficient Inference [0.0]
本稿では,効率的な言語モデル推論のための新しいアプローチであるEntropy Adaptive Decoding (EAD)を提案する。
EADは予測の不確実性に基づいて、異なるサイズのモデル間で切り替える。
異なるモデルファミリー間で顕著な効率向上を示す。
論文 参考訳(メタデータ) (2025-02-05T22:15:21Z) - A Reinforcement Learning-Based Task Mapping Method to Improve the Reliability of Clustered Manycores [0.0]
本稿では,マルチコアシステムの信頼性向上を目的とした強化学習(RL)に基づくタスクマッピング手法を提案する。
この方法は、binパッキング、Task-to-binマッピング、Task-to-coreマッピングを含む3つのステップから構成される。
提案手法の有効性をSPLASH2およびPARSECベンチマークスイートアプリケーションを用いて16,32,64コアシステムで評価した。
論文 参考訳(メタデータ) (2024-12-26T20:08:10Z) - Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - Green AI in Action: Strategic Model Selection for Ensembles in Production [2.464194460689648]
複数のモデルからの予測を1つの予測に組み合わせたアンサンブル学習は、累積エネルギー消費によってこの問題を強化する。
本稿では,AI アンサンブルシステムにおいて,AI モデルの精度とエネルギー消費のバランスをとることの課題に対処する,モデル選択のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-21T18:57:43Z) - LoRAPrune: Structured Pruning Meets Low-Rank Parameter-Efficient Fine-Tuning [56.88751562302793]
低ランク適応 (LoRA) が大型言語モデル (LLM) に登場した。
LoRAPruneは、高度にメモリ効率の良い正確な構造化プルーンドモデルを提供する新しいフレームワークである。
LoRAPruneはWikiText2では4.81、TBでは3.46、メモリ使用量は52.6%減少している。
論文 参考訳(メタデータ) (2023-05-28T15:15:48Z) - DistilPose: Tokenized Pose Regression with Heatmap Distillation [81.21273854769765]
本研究では,熱マップに基づく手法と回帰に基づく手法のギャップを埋める,DistilPoseと呼ばれる新しいポーズ推定フレームワークを提案する。
DistilPoseは、教師モデル(ヒートマップベース)から生徒モデル(レグレッションベース)への知識伝達を、Token-distilling (TDE) と Simulated Heatmaps を通じて最大化する。
論文 参考訳(メタデータ) (2023-03-04T16:56:29Z) - Fine-tune your Classifier: Finding Correlations With Temperature [2.071516130824992]
我々は、データセットを表現に計算された統計の集合として記述することで、分類タスクに対する温度の影響を分析する。
これらの抽出された統計値と観測された最適温度との相関について検討した。
論文 参考訳(メタデータ) (2022-10-18T09:48:46Z) - PowerGraph: Using neural networks and principal components to
multivariate statistical power trade-offs [0.0]
複数のモデルパラメータを持つ計画研究に対する事前統計パワー推定は本質的に多変量問題である。
このような場合の明示的な解は非現実的であるか、解決できないかのいずれかであり、研究者はパワーをシミュレートする一般的な方法を残している。
本稿では,様々なモデルパラメータの組み合わせに関する研究において,統計的パワーの効率的な推定とグラフ化について検討する。
論文 参考訳(メタデータ) (2021-12-29T19:06:29Z) - Towards Practical Lipreading with Distilled and Efficient Models [57.41253104365274]
ニューラルネットワークの復活により、リリーディングは多くの進歩を目の当たりにした。
最近の研究は、最適なアーキテクチャを見つけるか、一般化を改善することで、パフォーマンスを改善するといった側面に重点を置いている。
現在の方法論と、実践的なシナリオにおける効果的なリップリーディングのデプロイ要件との間には、依然として大きなギャップがあります。
まず, LRW と LRW-1000 をそれぞれ 88.5% と 46.6% に比例して, 最先端の性能を高めることを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。