論文の概要: CFU Playground: Full-Stack Open-Source Framework for Tiny Machine
Learning (tinyML) Acceleration on FPGAs
- arxiv url: http://arxiv.org/abs/2201.01863v1
- Date: Wed, 5 Jan 2022 23:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-07 21:03:49.535975
- Title: CFU Playground: Full-Stack Open-Source Framework for Tiny Machine
Learning (tinyML) Acceleration on FPGAs
- Title(参考訳): CFU Playground:FPGA上でのTiny Machine Learning(tinyML)アクセラレーションのためのフルスタックオープンソースフレームワーク
- Authors: Shvetank Prakash, Tim Callahan, Joseph Bushagour, Colby Banbury, Alan
V. Green, Pete Warden, Tim Ansell, Vijay Janapa Reddi
- Abstract要約: CFU Playgroundは、機械学習(ML)アクセラレータの迅速かつ反復的な設計を可能にするフルスタックフレームワークである。
我々のツールチェーンは、オープンソースソフトウェア、RTLジェネレータ、FPGAツールを緊密に統合し、合成、場所、ルートを調整します。
- 参考スコア(独自算出の注目度): 0.38189812742884266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present CFU Playground, a full-stack open-source framework that enables
rapid and iterative design of machine learning (ML) accelerators for embedded
ML systems. Our toolchain tightly integrates open-source software, RTL
generators, and FPGA tools for synthesis, place, and route. This full-stack
development framework gives engineers access to explore bespoke architectures
that are customized and co-optimized for embedded ML. The rapid,
deploy-profile-optimization feedback loop lets ML hardware and software
developers achieve significant returns out of a relatively small investment in
customization. Using CFU Playground's design loop, we show substantial speedups
(55x-75x) and design space exploration between the CPU and accelerator.
- Abstract(参考訳): 組み込みMLシステムのための機械学習アクセラレータ(ML)の迅速かつ反復的な設計を可能にする,フルスタックのオープンソースフレームワークであるCFU Playgroundを提案する。
我々のツールチェーンは、オープンソースソフトウェア、RTLジェネレータ、FPGAツールを緊密に統合し、合成、場所、ルートを調整します。
このフルスタック開発フレームワークは、組み込みML用にカスタマイズされ、共同最適化された、ベスポークアーキテクチャをエンジニアが探索することを可能にする。
迅速なデプロイの最適化フィードバックループにより、MLハードウェアとソフトウェア開発者は、カスタマイズに対する比較的小さな投資から大きなリターンを得られる。
CFU Playgroundの設計ループを用いて、CPUとアクセラレーションの間の大幅なスピードアップ(55x-75x)と設計空間探索を示す。
関連論文リスト
- Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - LLM-Aided Compilation for Tensor Accelerators [6.709490736813537]
我々は,大規模言語モデル(LLM)を用いてハードウェアアクセラレーター用のコンパイラを構築する方法について論じる。
具体的には,GPT-4がGemminiアクセラレータへのコード変換において高いパスレートを達成する能力を示す。
また,LLMを利用してハードウェア最適化コードを生成するための2フェーズワークフローを提案する。
論文 参考訳(メタデータ) (2024-08-06T19:10:25Z) - Enabling more efficient and cost-effective AI/ML systems with Collective Mind, virtualized MLOps, MLPerf, Collective Knowledge Playground and reproducible optimization tournaments [0.09065034043031665]
コミュニティの取り組みとして、AI、ML、その他の一般的なワークロードに対して、より安く、より速く、よりエネルギー効率の高いワークロードを自動で共同設計する取り組みを紹介します。
私は、急速に進化するオープンソースおよびプロプライエタリなAI/MLモデル、データセット、ソフトウェア、ハードウェアにわたる複雑なアプリケーションの構築、実行、プロファイリング、最適化という面倒なプロセスをモジュール化、自動化、仮想化するCMを開発しました。
CMとCM4MLOpsを寄付して、学界と業界を結びつけることで、AIやその他の新興ワークロードを、最も効率的かつコスト効率のよい方法で構築し、実行する方法を学びました。
論文 参考訳(メタデータ) (2024-06-24T16:55:03Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - DEAP: Design Space Exploration for DNN Accelerator Parallelism [0.0]
大規模言語モデル(LLM)はますます複雑で、訓練やサービスにも強力になっています。
本稿では、ハードウェアとソフトウェアの共同設計がどのように連携し、カスタマイズされたハードウェアシステムを構築するかを示す。
論文 参考訳(メタデータ) (2023-12-24T02:43:01Z) - Verilog-to-PyG -- A Framework for Graph Learning and Augmentation on RTL
Designs [15.67829950106923]
本稿では,RTL設計をグラフ表現基盤に変換する,革新的なオープンソースフレームワークを提案する。
Verilog-to-PyG(V2PYG)フレームワークは、オープンソースのElectronic Design Automation(EDA)ツールチェーンOpenROADと互換性がある。
本稿では, グラフベースのRTL設計データベースの構築のために, 機能的等価設計拡張を可能にする新しいRTLデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T20:11:40Z) - Open-source FPGA-ML codesign for the MLPerf Tiny Benchmark [11.575901540758574]
我々は,フィールドプログラマブルゲートアレイ(FPGA)プラットフォーム上でのTiny Inference Benchmarkの開発経験を示す。
我々は、FPGA上で最適化されたニューラルネットワークのAIハードウェアコーデックを民主化することを目的として、オープンソースのhls4mlとFINN perJを使用している。
ソリューションはシステムオンチップ(Pynq-Z2)と純粋なFPGA(Arty A7-100T)プラットフォームにデプロイされる。
論文 参考訳(メタデータ) (2022-06-23T15:57:17Z) - Flashlight: Enabling Innovation in Tools for Machine Learning [50.63188263773778]
私たちは、機械学習ツールやシステムの革新を促進するために構築されたオープンソースのライブラリであるFlashlightを紹介します。
Flashlightは、広く使われているライブラリを下流で活用し、機械学習とシステム研究者をより緊密に連携させる研究を可能にするツールだと考えています。
論文 参考訳(メタデータ) (2022-01-29T01:03:29Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Does Form Follow Function? An Empirical Exploration of the Impact of
Deep Neural Network Architecture Design on Hardware-Specific Acceleration [76.35307867016336]
本研究では,深層ニューラルネットワーク設計が推論速度向上の程度に与える影響について検討する。
ハードウェア固有のアクセラレーションを活用することで平均推論速度が380%向上する一方で、マクロアーキテクチャ設計パターンによって推論速度が大幅に変化することを示した。
論文 参考訳(メタデータ) (2021-07-08T23:05:39Z) - VEGA: Towards an End-to-End Configurable AutoML Pipeline [101.07003005736719]
VEGAは効率よく包括的なAutoMLフレームワークで、複数のハードウェアプラットフォームに互換性があり、最適化されている。
VEGAは既存のAutoMLアルゴリズムを改善し、SOTAメソッドに対して新しい高性能モデルを発見する。
論文 参考訳(メタデータ) (2020-11-03T06:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。