論文の概要: MetaML: Automating Customizable Cross-Stage Design-Flow for Deep
Learning Acceleration
- arxiv url: http://arxiv.org/abs/2306.08746v1
- Date: Wed, 14 Jun 2023 21:06:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 17:22:19.004384
- Title: MetaML: Automating Customizable Cross-Stage Design-Flow for Deep
Learning Acceleration
- Title(参考訳): MetaML: ディープラーニングアクセラレーションのためのカスタマイズ可能なクロスステージ設計フローを自動化する
- Authors: Zhiqiang Que, Shuo Liu, Markus Rognlien, Ce Guo, Jose G. F. Coutinho,
Wayne Luk
- Abstract要約: 本稿では,ディープニューラルネットワーク(DNN)ハードウェアアクセラレータのための新しい最適化フレームワークを提案する。
設計フローアーキテクチャ構築のための新しい最適化と変換タスクを導入する。
以上の結果から,DSP使用率92%,LUT使用率89%の大幅な削減が得られた。
- 参考スコア(独自算出の注目度): 5.2487252195308844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel optimization framework for deep neural network
(DNN) hardware accelerators, enabling the rapid development of customized and
automated design flows. More specifically, our approach aims to automate the
selection and configuration of low-level optimization techniques, encompassing
DNN and FPGA low-level optimizations. We introduce novel optimization and
transformation tasks for building design-flow architectures, which are highly
customizable and flexible, thereby enhancing the performance and efficiency of
DNN accelerators. Our results demonstrate considerable reductions of up to 92\%
in DSP usage and 89\% in LUT usage for two networks, while maintaining accuracy
and eliminating the need for human effort or domain expertise. In comparison to
state-of-the-art approaches, our design achieves higher accuracy and utilizes
three times fewer DSP resources, underscoring the advantages of our proposed
framework.
- Abstract(参考訳): 本稿では、Deep Neural Network(DNN)ハードウェアアクセラレーションのための新しい最適化フレームワークを紹介し、カスタマイズされた設計フローと自動設計フローの迅速な開発を可能にする。
具体的には、DNNとFPGAの低レベル最適化を含む低レベル最適化手法の選択と構成を自動化することを目的とする。
DNN加速器の性能と効率を向上させるため、高度にカスタマイズ可能で柔軟な設計フローアーキテクチャを構築するための新しい最適化および変換タスクを導入する。
以上の結果から,DSP使用率を最大99%,LUT使用率を最大99%削減し,精度を維持し,人的努力やドメインの専門知識の必要性を排除した。
最先端のアプローチと比較して,提案手法は高い精度を実現し,dspリソースを3倍削減し,提案フレームワークの利点を強調する。
関連論文リスト
- DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - Hardware-Software Co-optimised Fast and Accurate Deep Reconfigurable Spiking Inference Accelerator Architecture Design Methodology [2.968768532937366]
Spiking Neural Networks(SNN)は、機械学習モデルのエネルギー効率を改善するための有望なアプローチとして登場した。
我々は,ソフトウェア学習深層ニューラルネットワーク(DNN)を高精度スパイキングモデルに移植するハードウェア・ソフトウェア共同最適化戦略を開発した。
論文 参考訳(メタデータ) (2024-10-07T05:04:13Z) - ARCO:Adaptive Multi-Agent Reinforcement Learning-Based Hardware/Software Co-Optimization Compiler for Improved Performance in DNN Accelerator Design [4.825037489691159]
ARCOは適応型マルチエージェント強化学習(MARL)ベースの協調最適化コンパイルフレームワークである。
このフレームワークには、MARL内に3つのアクター批判エージェントが含まれており、それぞれがコンパイル/最適化の異なる側面に特化している。
論文 参考訳(メタデータ) (2024-07-11T05:22:04Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - PLiNIO: A User-Friendly Library of Gradient-based Methods for
Complexity-aware DNN Optimization [3.460496851517031]
PLiNIOは、最先端のDNN設計自動化技術を包括的に実装したオープンソースライブラリである。
PLiNIOは、ベースラインアーキテクチャと比較して最大94.34%のメモリ削減を実現し、1%の精度低下を実現している。
論文 参考訳(メタデータ) (2023-07-18T07:11:14Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - A Construction Kit for Efficient Low Power Neural Network Accelerator
Designs [11.807678100385164]
この研究は、最近の研究で使用されているニューラルネットワークアクセラレータ最適化アプローチの調査を提供する。
建設キットとして最適化と定量的効果のリストを提示し、各ビルディングブロックの設計選択を個別に評価する。
論文 参考訳(メタデータ) (2021-06-24T07:53:56Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Automated Design Space Exploration for optimised Deployment of DNN on
Arm Cortex-A CPUs [13.628734116014819]
組み込みデバイスにおけるディープラーニングは、ディープニューラルネットワーク(DNN)のデプロイを最適化する多くの方法の開発を促している。
テストし、グローバルに最適化されたソリューションを得るには、アプローチの空間が大きすぎるため、クロスレベル最適化に関する研究が不足している。
我々は、Arm Cortex-A CPUプラットフォーム上での最先端DNNの一連の結果を示し、最大4倍の性能向上とメモリの2倍以上の削減を実現した。
論文 参考訳(メタデータ) (2020-06-09T11:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。