論文の概要: Predicting the Performance of a Computing System with Deep Networks
- arxiv url: http://arxiv.org/abs/2302.13638v1
- Date: Mon, 27 Feb 2023 10:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 16:05:51.153509
- Title: Predicting the Performance of a Computing System with Deep Networks
- Title(参考訳): ディープネットワークを用いた計算システムの性能予測
- Authors: Mehmet Cengiz, Matthew Forshaw, Amir Atapour-Abarghouei, Andrew
Stephen McGough
- Abstract要約: 未確認ハードウェアのベンチマークスコアを予測するために、Deep Learningモデルを構築する可能性を実証する。
完全接続ネットワークと2つの畳み込みニューラルネットワーク(1つのbespokeと1つのResNetにインスパイアされた)の3つの異なるネットワークを評価し,それぞれ0.96,0.98,0.94の印象的なR2$スコアを実証した。
- 参考スコア(独自算出の注目度): 4.301276597844756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the performance and energy consumption of computing hardware is
critical for many modern applications. This will inform procurement decisions,
deployment decisions, and autonomic scaling. Existing approaches to
understanding the performance of hardware largely focus around benchmarking --
leveraging standardised workloads which seek to be representative of an
end-user's needs. Two key challenges are present; benchmark workloads may not
be representative of an end-user's workload, and benchmark scores are not
easily obtained for all hardware. Within this paper, we demonstrate the
potential to build Deep Learning models to predict benchmark scores for unseen
hardware. We undertake our evaluation with the openly available SPEC 2017
benchmark results. We evaluate three different networks, one fully-connected
network along with two Convolutional Neural Networks (one bespoke and one
ResNet inspired) and demonstrate impressive $R^2$ scores of 0.96, 0.98 and 0.94
respectively.
- Abstract(参考訳): コンピューティングハードウェアの性能とエネルギー消費量を予測することは、現代の多くのアプリケーションにとって非常に重要である。
これは調達決定、デプロイメント決定、自律スケーリングを通知する。
ハードウェアのパフォーマンスを理解する既存のアプローチは、主に、エンドユーザのニーズを代表することを目的とした、標準化されたワークロードのベンチマークに重点を置いている。
ベンチマークワークロードはエンドユーザのワークロードを表すものではなく、ベンチマークスコアはすべてのハードウェアで簡単には取得できない。
本稿では,未知ハードウェアのベンチマークスコアを予測するために,ディープラーニングモデルを構築する可能性を示す。
我々はSPEC 2017ベンチマークの結果を公開して評価する。
2つの畳み込みニューラルネットワーク(bespoke と resnet にインスパイアされた)と完全接続されたネットワークを3つの異なるネットワークで評価し,それぞれ 0.96, 0.98, 0.94 の印象的な$r^2$スコアを示した。
関連論文リスト
- The Sparsity Roofline: Understanding the Hardware Limits of Sparse
Neural Networks [4.130528857196844]
本稿では,ニューラルネットワークの空間性を評価する視覚的パフォーマンスモデルであるSparsity Rooflineを紹介する。
機械学習の研究者たちは、実装されていない、あるいは最適化されていないブロック構造化されたスパーシティパターンのパフォーマンスを予測できることを示す。
ハードウェアデザイナが、ハードウェアにおける新しいスパースパターンとスパースデータフォーマットのパフォーマンスに与える影響を、どのように予測できるかを示す。
論文 参考訳(メタデータ) (2023-09-30T21:29:31Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Energy Consumption of Neural Networks on NVIDIA Edge Boards: an
Empirical Model [6.809944967863927]
近年、レイテンシの低減とデータプライバシの保護のために、ディープラーニング推論タスクの実行を、ユーザに近いネットワークのエッジにシフトする傾向があります。
本研究では,現代のエッジノードにおける推論タスクのエネルギ消費をプロファイリングすることを目的とする。
そこで我々は, 検討ボード上である推論タスクのエネルギー消費を推定できる, 単純で実用的なモデルを構築した。
論文 参考訳(メタデータ) (2022-10-04T14:12:59Z) - Benchmarking Node Outlier Detection on Graphs [90.29966986023403]
グラフの外れ値検出は、多くのアプリケーションにおいて、新しいが重要な機械学習タスクである。
UNODと呼ばれるグラフに対して、最初の包括的教師なしノード外乱検出ベンチマークを示す。
論文 参考訳(メタデータ) (2022-06-21T01:46:38Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Generalized Latency Performance Estimation for Once-For-All Neural
Architecture Search [0.0]
特定のハードウェアとNAS検索空間で訓練されたベースモデルを用いた微調整を含む2つの汎用性戦略を紹介します。
ProxylessNASに比べて50%以上低いRMSE損失を達成できる待ち時間予測モデル群を提供する。
論文 参考訳(メタデータ) (2021-01-04T00:48:09Z) - Toward Accurate Platform-Aware Performance Modeling for Deep Neural
Networks [0.17499351967216337]
機械学習に基づくPerfNetV2は、さまざまなGPUアクセラレータ上でのニューラルネットワークのパフォーマンスをモデル化するための、これまでの作業の精度を向上させる。
アプリケーションを利用すると、アプリケーションで使用される畳み込みニューラルネットワークの推論時間とトレーニング時間を予測することができる。
我々のケーススタディでは、PerfNetV2が13.1%のLeNet、AlexNet、VGG16、NVIDIA GTX-1080Tiで平均絶対パーセンテージエラーを発生し、ICBD 2018で発表された以前の研究のエラー率は200%に達する可能性がある。
論文 参考訳(メタデータ) (2020-12-01T01:42:23Z) - Optimizing Deep Learning Recommender Systems' Training On CPU Cluster
Architectures [56.69373580921888]
クラウドコンピューティングセンターのAIサイクルの大部分を占めるRecommender Systemsに注目します。
HPC用に調整された最新のCPUハードウェアとソフトウェア上で動作可能にすることで、パフォーマンスの2桁以上の改善を達成できます。
論文 参考訳(メタデータ) (2020-05-10T14:40:16Z) - AIBench: An Agile Domain-specific Benchmarking Methodology and an AI
Benchmark Suite [26.820244556465333]
本稿では,アジャイルなドメイン固有のベンチマーク手法を提案する。
我々は10つの重要なエンドツーエンドアプリケーションシナリオを特定し、そのうち16の代表的なAIタスクをAIコンポーネントベンチマークとして抽出する。
最初のエンドツーエンドのインターネットサービスAIベンチマークを提示する。
論文 参考訳(メタデータ) (2020-02-17T07:29:05Z) - SideInfNet: A Deep Neural Network for Semi-Automatic Semantic
Segmentation with Side Information [83.03179580646324]
本稿では,新たなディープニューラルネットワークアーキテクチャであるSideInfNetを提案する。
画像から学習した機能とユーザアノテーションから抽出したサイド情報を統合する。
提案手法を評価するために,提案したネットワークを3つのセマンティックセグメンテーションタスクに適用し,ベンチマークデータセットに対する広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-07T06:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。