論文の概要: CFU Playground: Full-Stack Open-Source Framework for Tiny Machine
Learning (tinyML) Acceleration on FPGAs
- arxiv url: http://arxiv.org/abs/2201.01863v3
- Date: Wed, 5 Apr 2023 17:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 16:46:04.706300
- Title: CFU Playground: Full-Stack Open-Source Framework for Tiny Machine
Learning (tinyML) Acceleration on FPGAs
- Title(参考訳): CFU Playground:FPGA上でのTiny Machine Learning(tinyML)アクセラレーションのためのフルスタックオープンソースフレームワーク
- Authors: Shvetank Prakash, Tim Callahan, Joseph Bushagour, Colby Banbury, Alan
V. Green, Pete Warden, Tim Ansell, Vijay Janapa Reddi
- Abstract要約: CFU Playgroundは、組み込みMLシステムのための機械学習アクセラレータ(ML)の迅速かつ反復的な設計を可能にする、フルスタックのオープンソースフレームワークである。
我々のツールはFPGAと将来のシステム研究におけるハードウェアとソフトウェアの共同設計のために、完全にオープンソースでエンドツーエンドのフローを提供する。
私たちの迅速なデプロイ-注目-最適化フィードバックループによって、MLハードウェアとソフトウェア開発者は、比較的小さな投資から大きなリターンを得られるようになります。
- 参考スコア(独自算出の注目度): 2.2177069086277195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Need for the efficient processing of neural networks has given rise to the
development of hardware accelerators. The increased adoption of specialized
hardware has highlighted the need for more agile design flows for
hardware-software co-design and domain-specific optimizations. In this paper,
we present CFU Playground: a full-stack open-source framework that enables
rapid and iterative design and evaluation of machine learning (ML) accelerators
for embedded ML systems. Our tool provides a completely open-source end-to-end
flow for hardware-software co-design on FPGAs and future systems research. This
full-stack framework gives the users access to explore experimental and bespoke
architectures that are customized and co-optimized for embedded ML. Our rapid,
deploy-profile-optimization feedback loop lets ML hardware and software
developers achieve significant returns out of a relatively small investment in
customization. Using CFU Playground's design and evaluation loop, we show
substantial speedups between 55$\times$ and 75$\times$. The soft CPU coupled
with the accelerator opens up a new, rich design space between the two
components that we explore in an automated fashion using Vizier, an open-source
black-box optimization service.
- Abstract(参考訳): ニューラルネットワークの効率的な処理の必要性は、ハードウェアアクセラレータの開発を引き起こしている。
特別なハードウェアの採用の増加は、ハードウェアとソフトウェアの共同設計とドメイン固有の最適化のために、よりアジャイルな設計フローの必要性を強調している。
本稿では、組み込みMLシステムのための機械学習アクセラレーターの迅速かつ反復的な設計と評価を可能にするフルスタックオープンソースフレームワークであるCFU Playgroundを提案する。
我々のツールはFPGAと将来のシステム研究におけるハードウェアとソフトウェアの共同設計のために、完全にオープンソースでエンドツーエンドのフローを提供する。
このフルスタックフレームワークは、組み込みML用にカスタマイズされ、共最適化された実験的かつ好ましくないアーキテクチャを探索することを可能にする。
私たちの迅速なデプロイ/最適化フィードバックループによって、MLハードウェアとソフトウェア開発者は、カスタマイズに対する比較的小さな投資から大きなリターンを得られるようになります。
CFU Playgroundの設計と評価ループを用いて、55$\times$と75$\times$の間にかなりのスピードアップを示す。
アクセルと組み合わされたソフトCPUは、オープンソースのブラックボックス最適化サービスであるVizierを使って、私たちが探している2つのコンポーネント間の新しいリッチなデザインスペースを開放します。
関連論文リスト
- Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - LLM-Aided Compilation for Tensor Accelerators [6.709490736813537]
我々は,大規模言語モデル(LLM)を用いてハードウェアアクセラレーター用のコンパイラを構築する方法について論じる。
具体的には,GPT-4がGemminiアクセラレータへのコード変換において高いパスレートを達成する能力を示す。
また,LLMを利用してハードウェア最適化コードを生成するための2フェーズワークフローを提案する。
論文 参考訳(メタデータ) (2024-08-06T19:10:25Z) - Enabling more efficient and cost-effective AI/ML systems with Collective Mind, virtualized MLOps, MLPerf, Collective Knowledge Playground and reproducible optimization tournaments [0.09065034043031665]
コミュニティの取り組みとして、AI、ML、その他の一般的なワークロードに対して、より安く、より速く、よりエネルギー効率の高いワークロードを自動で共同設計する取り組みを紹介します。
私は、急速に進化するオープンソースおよびプロプライエタリなAI/MLモデル、データセット、ソフトウェア、ハードウェアにわたる複雑なアプリケーションの構築、実行、プロファイリング、最適化という面倒なプロセスをモジュール化、自動化、仮想化するCMを開発しました。
CMとCM4MLOpsを寄付して、学界と業界を結びつけることで、AIやその他の新興ワークロードを、最も効率的かつコスト効率のよい方法で構築し、実行する方法を学びました。
論文 参考訳(メタデータ) (2024-06-24T16:55:03Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - DEAP: Design Space Exploration for DNN Accelerator Parallelism [0.0]
大規模言語モデル(LLM)はますます複雑で、訓練やサービスにも強力になっています。
本稿では、ハードウェアとソフトウェアの共同設計がどのように連携し、カスタマイズされたハードウェアシステムを構築するかを示す。
論文 参考訳(メタデータ) (2023-12-24T02:43:01Z) - Verilog-to-PyG -- A Framework for Graph Learning and Augmentation on RTL
Designs [15.67829950106923]
本稿では,RTL設計をグラフ表現基盤に変換する,革新的なオープンソースフレームワークを提案する。
Verilog-to-PyG(V2PYG)フレームワークは、オープンソースのElectronic Design Automation(EDA)ツールチェーンOpenROADと互換性がある。
本稿では, グラフベースのRTL設計データベースの構築のために, 機能的等価設計拡張を可能にする新しいRTLデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T20:11:40Z) - Open-source FPGA-ML codesign for the MLPerf Tiny Benchmark [11.575901540758574]
我々は,フィールドプログラマブルゲートアレイ(FPGA)プラットフォーム上でのTiny Inference Benchmarkの開発経験を示す。
我々は、FPGA上で最適化されたニューラルネットワークのAIハードウェアコーデックを民主化することを目的として、オープンソースのhls4mlとFINN perJを使用している。
ソリューションはシステムオンチップ(Pynq-Z2)と純粋なFPGA(Arty A7-100T)プラットフォームにデプロイされる。
論文 参考訳(メタデータ) (2022-06-23T15:57:17Z) - Flashlight: Enabling Innovation in Tools for Machine Learning [50.63188263773778]
私たちは、機械学習ツールやシステムの革新を促進するために構築されたオープンソースのライブラリであるFlashlightを紹介します。
Flashlightは、広く使われているライブラリを下流で活用し、機械学習とシステム研究者をより緊密に連携させる研究を可能にするツールだと考えています。
論文 参考訳(メタデータ) (2022-01-29T01:03:29Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Does Form Follow Function? An Empirical Exploration of the Impact of
Deep Neural Network Architecture Design on Hardware-Specific Acceleration [76.35307867016336]
本研究では,深層ニューラルネットワーク設計が推論速度向上の程度に与える影響について検討する。
ハードウェア固有のアクセラレーションを活用することで平均推論速度が380%向上する一方で、マクロアーキテクチャ設計パターンによって推論速度が大幅に変化することを示した。
論文 参考訳(メタデータ) (2021-07-08T23:05:39Z) - VEGA: Towards an End-to-End Configurable AutoML Pipeline [101.07003005736719]
VEGAは効率よく包括的なAutoMLフレームワークで、複数のハードウェアプラットフォームに互換性があり、最適化されている。
VEGAは既存のAutoMLアルゴリズムを改善し、SOTAメソッドに対して新しい高性能モデルを発見する。
論文 参考訳(メタデータ) (2020-11-03T06:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。