論文の概要: Accelerating Edge AI with Morpher: An Integrated Design, Compilation and
Simulation Framework for CGRAs
- arxiv url: http://arxiv.org/abs/2309.06127v1
- Date: Tue, 12 Sep 2023 11:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 13:32:03.581360
- Title: Accelerating Edge AI with Morpher: An Integrated Design, Compilation and
Simulation Framework for CGRAs
- Title(参考訳): MorpherによるエッジAIの高速化 - CGRAのための統合設計、コンパイル、シミュレーションフレームワーク
- Authors: Dhananjaya Wijerathne, Zhaoying Li, Tulika Mitra
- Abstract要約: Coarse-Grained Reconfigurable Arrays (CGRA)は、電力効率の高いエッジアクセラレータとして大きな可能性を秘めており、AIアプリケーション以外の汎用性を提供します。
Morpherは、CGRAの広大な設計空間を探索する、オープンソースのアーキテクチャ適応型CGRA設計フレームワークである。
この研究はMorpherの概要を提供し、AIアプリケーションカーネルをユーザが定義したCGRAアーキテクチャに自動的にコンパイルする機能を強調している。
- 参考スコア(独自算出の注目度): 4.8302575552483535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coarse-Grained Reconfigurable Arrays (CGRAs) hold great promise as
power-efficient edge accelerator, offering versatility beyond AI applications.
Morpher, an open-source, architecture-adaptive CGRA design framework, is
specifically designed to explore the vast design space of CGRAs. The
comprehensive ecosystem of Morpher includes a tailored compiler, simulator,
accelerator synthesis, and validation framework. This study provides an
overview of Morpher, highlighting its capabilities in automatically compiling
AI application kernels onto user-defined CGRA architectures and verifying their
functionality. Through the Morpher framework, the versatility of CGRAs is
harnessed to facilitate efficient compilation and verification of edge AI
applications, covering important kernels representative of a wide range of
embedded AI workloads. Morpher is available online at
https://github.com/ecolab-nus/morpher-v2.
- Abstract(参考訳): Coarse-Grained Reconfigurable Arrays (CGRA)は、電力効率の高いエッジアクセラレータとして大きな可能性を秘めており、AIアプリケーション以外の汎用性を提供します。
Morpherはオープンソースのアーキテクチャ適応型CGRA設計フレームワークであり、CGRAの広大なデザイン空間を探求するために特別に設計された。
morpherの包括的なエコシステムには、カスタマイズされたコンパイラ、シミュレータ、アクセラレーション合成、バリデーションフレームワークが含まれる。
本稿では,aiアプリケーションカーネルをユーザ定義cgraアーキテクチャに自動コンパイルし,その機能を検証したmorpherの概要を紹介する。
Morpherフレームワークを通じて、CGRAの汎用性は、エッジAIアプリケーションの効率的なコンパイルと検証を容易にするために利用され、幅広い組み込みAIワークロードを代表する重要なカーネルをカバーする。
morpherはhttps://github.com/ecolab-nus/morpher-v2で入手できる。
関連論文リスト
- SimPhony: A Device-Circuit-Architecture Cross-Layer Modeling and Simulation Framework for Heterogeneous Electronic-Photonic AI System [7.378742476019604]
異種電子フォトニックAIシステムのための多層モデリングおよびシミュレーションフレームワークであるSimPhonyを提案する。
SimPhonyは、統一的で汎用的で高忠実なシミュレーションプラットフォームを提供することで、研究者が複数のドメインにわたるAIハードウェアを革新し、評価することを可能にする。
論文 参考訳(メタデータ) (2024-11-20T21:21:54Z) - Contextual Augmented Multi-Model Programming (CAMP): A Hybrid Local-Cloud Copilot Framework [8.28588489551341]
本稿では、Retrieval-Augmented Generation(RAG)を用いた局所モデルからなるマルチモデルAI支援プログラミングフレームワークであるCAMPを提案する。
RAGは、コンテキスト認識プロンプト構築を容易にするために、クラウドモデルからコンテキスト情報を取得する。
この方法論は、Appleソフトウェアエコシステム向けに開発されたAI支援プログラミングツールであるCopilot for Xcodeで実現されている。
論文 参考訳(メタデータ) (2024-10-20T04:51:24Z) - A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたスパイクニューラルネットワークシミュレータである。
その結果,ソフトウェアでトレーニングしたスパイクニューラルネットワークの挙動を,信頼性の高い推定結果として提示した。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - CFPFormer: Feature-pyramid like Transformer Decoder for Segmentation and Detection [1.837431956557716]
特徴ピラミッドは、医療画像のセグメンテーションやオブジェクト検出といったタスクのために、畳み込みニューラルネットワーク(CNN)やトランスフォーマーで広く採用されている。
本稿では,特徴ピラミッドと変圧器を統合したデコーダブロックを提案する。
本モデルでは,既存手法と比較して,小型物体の検出性能が向上する。
論文 参考訳(メタデータ) (2024-04-23T18:46:07Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - LAMBO: Large AI Model Empowered Edge Intelligence [71.56135386994119]
次世代エッジインテリジェンスは、オフロード技術を通じて様々なアプリケーションに恩恵をもたらすことが期待されている。
従来のオフロードアーキテクチャは、不均一な制約、部分的な認識、不確実な一般化、トラクタビリティの欠如など、いくつかの問題に直面している。
我々は、これらの問題を解決するための10億以上のパラメータを持つLarge AI Model-Based Offloading (LAMBO)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - UTNet: A Hybrid Transformer Architecture for Medical Image Segmentation [6.646135062704341]
トランスフォーマーアーキテクチャは多くの自然言語処理タスクで成功している。
医用画像セグメンテーションを強化するために,自己意識を畳み込みニューラルネットワークに統合する強力なハイブリッドトランスフォーマーアーキテクチャUTNetを提案する。
論文 参考訳(メタデータ) (2021-07-02T00:56:27Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。