論文の概要: On Extending Amdahl's law to Learn Computer Performance
- arxiv url: http://arxiv.org/abs/2110.07822v1
- Date: Fri, 15 Oct 2021 02:37:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 15:20:14.585269
- Title: On Extending Amdahl's law to Learn Computer Performance
- Title(参考訳): コンピュータ性能学習におけるアムダール法則の拡張について
- Authors: Chaitanya Poolla, Rahul Saxena
- Abstract要約: 並列計算機性能の学習問題はマルチコアプロセッサの文脈で検討される。
我々は、Amdahlの法則を拡張して、複数のリソースを全体的なスピードアップ方程式に適合させることを提案する。
高速化方程式を機械学習に適した多変数回帰問題に変換する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The problem of learning parallel computer performance is investigated in the
context of multicore processors. Given a fixed workload, the effect of varying
system configuration on performance is sought. Conventionally, the performance
speedup due to a single resource enhancement is formulated using Amdahl's law.
However, in case of multiple configurable resources the conventional
formulation results in several disconnected speedup equations that cannot be
combined together to determine the overall speedup. To solve this problem, we
propose to (1) extend Amdahl's law to accommodate multiple configurable
resources into the overall speedup equation, and (2) transform the speedup
equation into a multivariable regression problem suitable for machine learning.
Using experimental data from two benchmarks (SPECCPU 2017 and PCMark 10) and
four hardware platforms (Intel Xeon 8180M, AMD EPYC 7702P, Intel CoffeeLake
8700K, and AMD Ryzen 3900X), analytical models are developed and
cross-validated. Findings indicate that in most cases, the models result in an
average cross-validated accuracy higher than 95%, thereby validating the
proposed extension of Amdahl's law. The proposed methodology enables rapid
generation of intelligent analytical models to support future industrial
development, optimization, and simulation needs.
- Abstract(参考訳): 並列計算機性能の学習問題はマルチコアプロセッサの文脈で検討される。
固定されたワークロードが与えられると、システム構成がパフォーマンスに与える影響が求められる。
従来、amdahlの法則を用いて、単一のリソース拡張による性能向上を定式化する。
しかし、複数の構成可能なリソースの場合、従来の定式化は結合できないいくつかの非連結なスピードアップ方程式をもたらし、全体的なスピードアップを決定する。
そこで本研究では,(1)amdahlの法則を拡張し,複数の構成可能な資源を全体的な速度アップ方程式に適合させ,(2)スピードアップ方程式を機械学習に適した多変数回帰問題に変換することを提案する。
2つのベンチマーク(SPECCPU 2017とPCMark 10)と4つのハードウェアプラットフォーム(Intel Xeon 8180M、AMD EPYC 7702P、Intel CoffeeLake 8700K、AMD Ryzen 3900X)からの実験データを用いて分析モデルを開発し、相互検証する。
発見は、ほとんどの場合、モデルが95%以上の平均クロスバリデード精度をもたらし、その結果、提案されたアムダールの法則の拡張が検証されることを示している。
提案手法は, 先進的な産業開発, 最適化, シミュレーションニーズを支援する知的分析モデルの迅速な生成を可能にする。
関連論文リスト
- EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Benchmarking Edge AI Platforms for High-Performance ML Inference [0.0]
エッジコンピューティングは、通信遅延を減らし、リアルタイム処理を可能にする能力から、高性能で異質なSystem-on-Chipソリューションの興隆を促進している。
現在のアプローチでは、現代的なハードウェアをスケールダウンすることが多いが、ニューラルネットワークワークロードのパフォーマンス特性は、大きく異なる場合がある。
我々は、CPUのみ、CPU/GPU、CPU/NPU統合ソリューション間で、様々な線形代数およびニューラルネットワーク推論タスクのレイテンシとスループットを比較した。
論文 参考訳(メタデータ) (2024-09-23T08:27:27Z) - Harnessing Manycore Processors with Distributed Memory for Accelerated
Training of Sparse and Recurrent Models [43.1773057439246]
現在のAIトレーニングインフラストラクチャは、単一の命令多重データ(SIMD)とシストリック配列アーキテクチャによって支配されている。
分散ローカルメモリを用いた大規模並列多重命令型マルチデータアーキテクチャにおけるスパース・リカレントモデルトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-11-07T23:18:35Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - Towards making the most of NLP-based device mapping optimization for
OpenCL kernels [5.6596607119831575]
我々は、加速されたOpenCLカーネルのための最適なデバイス選択(CPUまたはGPU)の問題に取り組むCummins et al.、すなわちDeeptuneの開発を拡張した。
ソースコードの文脈情報を拡張した4つの異なるモデルを提案する。
実験の結果,提案手法はCumminsらの手法を上回り,予測精度を最大4%向上させることがわかった。
論文 参考訳(メタデータ) (2022-08-30T10:20:55Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - Large Batch Simulation for Deep Reinforcement Learning [101.01408262583378]
我々は,視覚複雑な3次元環境における深層強化学習に基づく学習を,事前作業よりも2桁高速化する。
単一のGPUマシンで1秒間に19,000フレーム以上の経験と最大72,000フレーム/秒のエンドツーエンドのトレーニング速度を実現します。
バッチシミュレーションと性能最適化を組み合わせることで、1つのGPU上の複雑な3D環境において、従来の最先端システムでトレーニングされたエージェントの精度の97%から97%まで、ポイントナビゲーションエージェントをトレーニングできることを実証する。
論文 参考訳(メタデータ) (2021-03-12T00:22:50Z) - Scaling Distributed Deep Learning Workloads beyond the Memory Capacity
with KARMA [58.040931661693925]
冗長な再計算とアウト・オブ・コアの手法を組み合わせた戦略を提案する。
最先端のアウト・オブ・コア手法を用いて,6種類のモデルで平均1.22倍の高速化を実現した。
我々のデータ並列化ソリューションは,Megatron-LMやTurning-NLGといった大規模モデルのトレーニングにおいて,複雑なハイブリッドモデル並列性よりも優れる。
論文 参考訳(メタデータ) (2020-08-26T07:24:34Z) - Heterogeneous CPU+GPU Stochastic Gradient Descent Algorithms [1.3249453757295084]
ヘテロジニアスCPU+GPUアーキテクチャの深層学習のためのトレーニングアルゴリズムについて検討する。
私たちの2倍の目標 -- 収束率と資源利用を同時に最大化する -- は、この問題を難しくします。
これらのアルゴリズムの実装は,複数の実データセットよりも高速な収束と資源利用の両立を実現していることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:21:20Z) - Optimizing Streaming Parallelism on Heterogeneous Many-Core
Architectures: A Machine Learning Based Approach [16.702537371391053]
本稿では、異種多コアアーキテクチャ上のタスクベース並列アプリケーションにおいて、ハードウェアリソース分割とタスク粒度に関する優れたソリューションを導出する自動手法を提案する。
提案手法では,与えられたリソース分割とタスクの粒度設定に基づいて,対象アプリケーションの結果のパフォーマンスを推定するために,性能モデルを用いる。
シングルストリームバージョンと比較すると,XeonPhiとGPUプラットフォームでそれぞれ1.6倍,1.1倍の高速化を実現している。
論文 参考訳(メタデータ) (2020-03-05T21:18:21Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。