論文の概要: Survey of Machine Learning Accelerators
- arxiv url: http://arxiv.org/abs/2009.00993v1
- Date: Tue, 1 Sep 2020 01:28:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 02:04:08.130317
- Title: Survey of Machine Learning Accelerators
- Title(参考訳): 機械学習加速器の調査
- Authors: Albert Reuther, Peter Michaleas, Michael Jones, Vijay Gadepally,
Siddharth Samsi and Jeremy Kepner
- Abstract要約: 本稿では,昨年のIEEE-HPEC論文から,AIアクセラレータとプロセッサの調査を更新する。
本稿では,性能と消費電力の数値が公表されている現在のアクセラレータを整理し,要約する。
- 参考スコア(独自算出の注目度): 15.163544680926474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: New machine learning accelerators are being announced and released each month
for a variety of applications from speech recognition, video object detection,
assisted driving, and many data center applications. This paper updates the
survey of of AI accelerators and processors from last year's IEEE-HPEC paper.
This paper collects and summarizes the current accelerators that have been
publicly announced with performance and power consumption numbers. The
performance and power values are plotted on a scatter graph and a number of
dimensions and observations from the trends on this plot are discussed and
analyzed. For instance, there are interesting trends in the plot regarding
power consumption, numerical precision, and inference versus training. This
year, there are many more announced accelerators that are implemented with many
more architectures and technologies from vector engines, dataflow engines,
neuromorphic designs, flash-based analog memory processing, and photonic-based
processing.
- Abstract(参考訳): 新しい機械学習アクセラレータが毎月発表され、音声認識、ビデオオブジェクト検出、アシスト駆動、多くのデータセンタアプリケーションなど、さまざまなアプリケーション向けにリリースされている。
本稿では,昨年のIEEE-HPEC論文から,AIアクセラレータとプロセッサの調査を更新する。
本稿では,パフォーマンスと消費電力の数値で公表された現在の加速器を収集し,要約する。
性能と電力値は散乱グラフ上にプロットされ、このプロットの傾向から多くの次元と観察が議論され、解析される。
例えば、消費電力、数値精度、推論とトレーニングのプロットには興味深い傾向がある。
今年は、ベクターエンジン、データフローエンジン、ニューロモルフィックデザイン、フラッシュベースのアナログメモリ処理、フォトニックベースの処理など、多くのアーキテクチャや技術で実装された、多くの発表がある。
関連論文リスト
- Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Lincoln AI Computing Survey (LAICS) Update [8.790207519640472]
本稿は、過去4年間のAIアクセラレーターおよびプロセッサの調査の更新である。
公に発表された現在の商業アクセラレータを収集し、要約する。
市場セグメントを散乱プロットにハイライトし、各セグメントのズームプロットも含む。
論文 参考訳(メタデータ) (2023-10-13T14:36:26Z) - A Survey on Deep Learning Hardware Accelerators for Heterogeneous HPC Platforms [9.036774656254375]
この調査は、ディープラーニングアクセラレータの設計における最新の進歩を要約し、分類する。
それは、GPUやTPUベースのアクセラレータだけでなく、設計固有のハードウェアアクセラレータも含む、ディープラーニングアクセラレーションをサポートするための最も高度なアプローチを強調している。
この調査では、新たなメモリ技術とコンピューティングパラダイムに基づいたアクセラレータについても説明している。
論文 参考訳(メタデータ) (2023-06-27T15:24:24Z) - Benchmarking GPU and TPU Performance with Graph Neural Networks [0.0]
この研究は、現実のパターン認識問題を解決するために開発されたグラフニューラルネットワーク(GNN)を用いてGPUとTPUのパフォーマンストレーニングを分析し、比較する。
スパースデータに作用する新しいモデルのクラスを特徴付けることは、ディープラーニングライブラリや将来のAIアクセラレータの設計を最適化するのに有効である。
論文 参考訳(メタデータ) (2022-10-21T21:03:40Z) - Advancing Reacting Flow Simulations with Data-Driven Models [50.9598607067535]
マルチ物理問題における機械学習ツールの効果的な利用の鍵は、それらを物理モデルとコンピュータモデルに結合することである。
本章では, 燃焼システムにおけるデータ駆動型低次モデリングの適用可能性について概説する。
論文 参考訳(メタデータ) (2022-09-05T16:48:34Z) - Automated Graph Machine Learning: Approaches, Libraries, Benchmarks and Directions [58.220137936626315]
本稿では,グラフ機械学習の自動手法について論じる。
当社の専用かつ世界初のグラフ機械学習のためのオープンソースライブラリであるAutoGLを紹介します。
また、統一的で再現性があり、効率的な評価をサポートする調整されたベンチマークについて述べる。
論文 参考訳(メタデータ) (2022-01-04T18:31:31Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - AI Accelerator Survey and Trends [4.722078109242797]
本稿では,過去2年間のAIアクセラレータとプロセッサの調査を更新する。
本稿では,ピーク性能と電力消費数で公表されている現在の商用アクセラレータをまとめ,要約する。
論文 参考訳(メタデータ) (2021-09-18T15:57:47Z) - Resistive Neural Hardware Accelerators [0.46198289193451136]
ReRAMベースのインメモリコンピューティングは、領域と電力効率のよい推論の実装において大きな可能性を秘めている。
ReRAMベースのインメモリコンピューティングへの移行は、領域と電力効率のよい推論の実装において大きな可能性を秘めている。
本稿では,最先端のReRAMベースディープニューラルネットワーク(DNN)多コアアクセラレータについて概説する。
論文 参考訳(メタデータ) (2021-09-08T21:11:48Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - Knowledge Distillation: A Survey [87.51063304509067]
ディープニューラルネットワークは、特にコンピュータビジョンタスクにおいて、産業と学術の両方で成功している。
リソースが限られているデバイスに、これらの面倒なディープモデルをデプロイすることは難しい。
知識蒸留は、大きな教師モデルから小さな学生モデルを効果的に学習する。
論文 参考訳(メタデータ) (2020-06-09T21:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。