論文の概要: Machine Learning aided Computer Architecture Design for CNN Inferencing
Systems
- arxiv url: http://arxiv.org/abs/2308.05364v1
- Date: Thu, 10 Aug 2023 06:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 13:27:29.486599
- Title: Machine Learning aided Computer Architecture Design for CNN Inferencing
Systems
- Title(参考訳): CNN推論システムのための機械学習支援型コンピュータアーキテクチャ設計
- Authors: Christopher A. Metz
- Abstract要約: 我々は,それぞれ5.03%,5.94%のMAPEを用いて,推論中のCNNのパワーと性能を予測する手法を開発した。
我々のアプローチは、コンピュータアーキテクトが開発初期段階のパワーと性能を見積もることを可能にし、多くのプロトタイプの必要性を減らします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Efficient and timely calculations of Machine Learning (ML) algorithms are
essential for emerging technologies like autonomous driving, the Internet of
Things (IoT), and edge computing. One of the primary ML algorithms used in such
systems is Convolutional Neural Networks (CNNs), which demand high
computational resources. This requirement has led to the use of ML accelerators
like GPGPUs to meet design constraints. However, selecting the most suitable
accelerator involves Design Space Exploration (DSE), a process that is usually
time-consuming and requires significant manual effort. Our work presents
approaches to expedite the DSE process by identifying the most appropriate
GPGPU for CNN inferencing systems. We have developed a quick and precise
technique for forecasting the power and performance of CNNs during inference,
with a MAPE of 5.03% and 5.94%, respectively. Our approach empowers computer
architects to estimate power and performance in the early stages of
development, reducing the necessity for numerous prototypes. This saves time
and money while also improving the time-to-market period.
- Abstract(参考訳): 機械学習(ML)アルゴリズムの効率的かつタイムリーな計算は、自動運転、IoT(Internet of Things)、エッジコンピューティングといった新興技術に不可欠である。
このようなシステムで使われる主要なMLアルゴリズムの1つは、高い計算資源を必要とする畳み込みニューラルネットワーク(CNN)である。
この要件により、設計上の制約を満たすためにGPGPUのようなMLアクセラレータが使用されるようになった。
しかしながら、最も適切な加速器を選択するには、通常時間を要する、かなりの手作業を必要とする設計空間探索(DSE)が関与する。
本研究は,CNN推論システムにおいて,最も適切なGPGPUを同定し,DSEプロセスの高速化手法を提案する。
我々は,推定中のcnnのパワーと性能を予測するための迅速かつ正確な手法を開発し,mapeは5.3%,5.94%であった。
我々のアプローチは、コンピュータアーキテクトが開発初期段階のパワーと性能を見積もることを可能にし、多くのプロトタイプの必要性を減らす。
これは時間とお金を節約し、市場投入期間も改善する。
関連論文リスト
- Using Machine Learning To Identify Software Weaknesses From Software
Requirement Specifications [49.1574468325115]
本研究は、要求仕様からソフトウェア弱点を特定するための効率的な機械学習アルゴリズムを見つけることに焦点を当てる。
ProMISE_exp. Naive Bayes、サポートベクターマシン(SVM)、決定木、ニューラルネットワーク、畳み込みニューラルネットワーク(CNN)アルゴリズムをテストした。
論文 参考訳(メタデータ) (2023-08-10T13:19:10Z) - Performance and Energy Consumption of Parallel Machine Learning
Algorithms [0.0]
機械学習モデルは、様々な現実世界のアプリケーションで顕著な成功を収めた。
機械学習のモデルトレーニングには、大規模データセットと複数のイテレーションが必要である。
トレーニングアルゴリズムの並列化は、トレーニングのプロセスを高速化するための一般的な戦略である。
論文 参考訳(メタデータ) (2023-05-01T13:04:39Z) - Partitioning Distributed Compute Jobs with Reinforcement Learning and
Graph Neural Networks [58.720142291102135]
大規模な機械学習モデルは、幅広い分野に進歩をもたらしている。
これらのモデルの多くは、単一のマシンでトレーニングするには大きすぎるため、複数のデバイスに分散する必要がある。
スループットやブロッキングレートといったユーザクリティカルな指標に対して,並列化の最大化が準最適であることを示す。
論文 参考訳(メタデータ) (2023-01-31T17:41:07Z) - Accelerating Machine Learning Training Time for Limit Order Book
Prediction [0.0]
金融機関は、金融機械学習を含む特定のアルゴリズムが利益を上げられるかどうかを知るためのシミュレーションに興味を持っている。
このタスクでは、ハードウェアアクセラレーションにより、ファイナンシャル機械学習研究者が結果を得るのに必要な時間を短縮することが期待されている。
株式市場の方向性を予測するためのリミットオーダーブックアルゴリズムが我々の課題であり、機械学習のトレーニングプロセスは時間を要する可能性がある。
調査された構成では、これによりトレーニング時間が大幅に短縮され、より効率的で広範なモデル開発が可能になる。
論文 参考訳(メタデータ) (2022-06-17T22:52:56Z) - Enable Deep Learning on Mobile Devices: Methods, Systems, and
Applications [46.97774949613859]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野において前例のない成功を収めた
しかし、それらの優れた性能は、計算の複雑さのかなりのコストを伴っている。
本稿では,効率的なディープラーニング手法,システム,応用について概説する。
論文 参考訳(メタデータ) (2022-04-25T16:52:48Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Hardware and Software Optimizations for Accelerating Deep Neural
Networks: Survey of Current Trends, Challenges, and the Road Ahead [14.313423044185583]
本稿では,deep neural network (dnn) のような脳にインスパイアされた2つのモデルの重要な特性について紹介する。
DLモデルの単一推論は数十億の乗算および累積演算を必要とする可能性があるため、DLは非常に計算量とエネルギーを消費する。
論文 参考訳(メタデータ) (2020-12-21T10:27:48Z) - Scheduling Real-time Deep Learning Services as Imprecise Computations [11.611969843191433]
本稿では,インテリジェントリアルタイムエッジサービスのための効率的なリアルタイムスケジューリングアルゴリズムを提案する。
これらのサービスは、音声認識、LIDAR処理、マシンビジョンなどのマシンインテリジェンスタスクを実行する。
ディープニューラルネットワークを不正確な計算として、それぞれに必須部分といくつかのオプション部分を持つことを示す。
論文 参考訳(メタデータ) (2020-11-02T16:43:04Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。