論文の概要: An Open-Source ML-Based Full-Stack Optimization Framework for Machine
Learning Accelerators
- arxiv url: http://arxiv.org/abs/2308.12120v1
- Date: Wed, 23 Aug 2023 13:16:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:06:00.106181
- Title: An Open-Source ML-Based Full-Stack Optimization Framework for Machine
Learning Accelerators
- Title(参考訳): 機械学習アクセラレータのためのmlベースのフルスタック最適化フレームワーク
- Authors: Hadi Esmaeilzadeh, Soroush Ghodrati, Andrew B. Kahng, Joon Kyung Kim,
Sean Kinzer, Sayak Kundu, Rohan Mahapatra, Susmita Dey Manasi, Sachin
Sapatnekar, Zhiang Wang and Ziqing Zeng
- Abstract要約: 本稿では,ハードウェアアクセラレーション型ディープニューラルネットワーク(DNN)と非DNN機械学習アクセラレータのための物理設計駆動型学習ベース予測フレームワークを提案する。
提案手法は,2つのディープラーニングアクセラレータプラットフォームのASIC実装に対して,平均7%以下の予測誤差でバックエンドPPAとシステムメトリクスを連続的に予測することを示す。
- 参考スコア(独自算出の注目度): 3.9343070428357225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parameterizable machine learning (ML) accelerators are the product of recent
breakthroughs in ML. To fully enable their design space exploration (DSE), we
propose a physical-design-driven, learning-based prediction framework for
hardware-accelerated deep neural network (DNN) and non-DNN ML algorithms. It
adopts a unified approach that combines backend power, performance, and area
(PPA) analysis with frontend performance simulation, thereby achieving a
realistic estimation of both backend PPA and system metrics such as runtime and
energy. In addition, our framework includes a fully automated DSE technique,
which optimizes backend and system metrics through an automated search of
architectural and backend parameters. Experimental studies show that our
approach consistently predicts backend PPA and system metrics with an average
7% or less prediction error for the ASIC implementation of two deep learning
accelerator platforms, VTA and VeriGOOD-ML, in both a commercial 12 nm process
and a research-oriented 45 nm process.
- Abstract(参考訳): パラメータ化可能な機械学習(ML)アクセラレータは、MLの最近のブレークスルーの産物である。
ハードウェア加速型ディープニューラルネットワーク(DNN)と非DNNMLアルゴリズムのための物理設計駆動型学習ベース予測フレームワークを提案する。
バックエンドのパワー、パフォーマンス、エリア(PPA)分析とフロントエンドのパフォーマンスシミュレーションを組み合わせた統一的なアプローチを採用し、バックエンドのPPAとランタイムやエネルギといったシステムメトリクスの両方を現実的に推定する。
さらに、我々のフレームワークには、バックエンドとシステムのメトリクスを最適化する、完全に自動化されたDSE技術が含まれています。
実験により,本手法は,商用12nmプロセスと研究指向45nmプロセスの両方において,asicによる2つのディープラーニングアクセラレータプラットフォームであるvtaとverigood-mlの実装に対して,平均7%以下の予測誤差でバックエンドppaとシステムメトリクスを一貫して予測することを示した。
関連論文リスト
- Analysis of Hardware Synthesis Strategies for Machine Learning in Collider Trigger and Data Acquisition [0.0]
機械学習は、インテリジェントなデータ処理と取得のために検出器エレクトロニクスに実装することができる。
衝突時のリアルタイムMLの実装には、ソフトウェアベースのアプローチでは実現不可能な非常に低いレイテンシが必要です。
フィールドプログラマブルゲートアレイにおけるコライダートリガーアルゴリズムの適用に着目し,ニューラルネットワークの推論効率の解析を行った。
論文 参考訳(メタデータ) (2024-11-18T15:59:30Z) - LLM-based Optimization of Compound AI Systems: A Survey [64.39860384538338]
複合AIシステムでは、LLMコール、レトリバー、コードインタプリタ、ツールなどのコンポーネントが相互接続される。
近年の進歩により, LLM を用いたパラメータのエンドツーエンド最適化が可能となった。
本稿では,複合AIシステムのLCMに基づく最適化の原理と動向について述べる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - rule4ml: An Open-Source Tool for Resource Utilization and Latency Estimation for ML Models on FPGA [0.0]
本稿では、FPGA上での合成と実装に先立って、ニューラルネットワーク(NN)のリソース利用と推論遅延を予測する新しい手法を提案する。
NNを高レベル合成(HLS)コードに変換するツールフローであるHLS4MLを活用している。
本手法では, 即時前合成予測に適応した回帰モデルを用いる。
論文 参考訳(メタデータ) (2024-08-09T19:35:10Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - AxOMaP: Designing FPGA-based Approximate Arithmetic Operators using
Mathematical Programming [2.898055875927704]
FPGAの近似演算子を合成するための,データ解析による数学的プログラミングに基づく手法を提案する。
具体的には、特徴量データの相関解析の結果に基づいて、混合整数の2次制約付きプログラムを定式化する。
従来の進化的アルゴリズムによる最適化と比較して,PPAとBEHAVの併用最適化において,ハイパーボリュームの最大21%の改善が報告されている。
論文 参考訳(メタデータ) (2023-09-23T18:23:54Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Self-learning locally-optimal hypertuning using maximum entropy, and
comparison of machine learning approaches for estimating fatigue life in
composite materials [0.0]
疲労損傷を予測するための最大エントロピーの原理に基づくML近傍近似アルゴリズムを開発した。
予測は、他のMLアルゴリズムと同様、高いレベルの精度を達成する。
論文 参考訳(メタデータ) (2022-10-19T12:20:07Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。