論文の概要: Data Collection and Acceleration Infrastructure for FPGA-based Edge AI
Applications
- arxiv url: http://arxiv.org/abs/2103.06518v1
- Date: Thu, 11 Mar 2021 08:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:34:02.670794
- Title: Data Collection and Acceleration Infrastructure for FPGA-based Edge AI
Applications
- Title(参考訳): FPGAベースのエッジAIアプリケーションのためのデータ収集と加速基盤
- Authors: Hergys Rexha, Sebastien Lafond
- Abstract要約: 本稿では,FPGAプラットフォームから関連するデータを収集し,フィードバック動作の処理や受信を行うクラウドシステムに送信することで,エッジAIアプリケーションエネルギを効率的に実行可能であることを示す。
今後の作業として、エッジアプリケーションの実行を効率的に適応できるベースモデルをトレーニングし、デプロイし、継続的に改善する可能性を予測します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As data being produced by IoT applications continues to explode, there's a
growing need to bring computing power closer to the source of the data to meet
the response-time, power-consumption and cost goals of performance-critical
applications like Industrial Internet of Things (IIoT), Automated Driving,
Medical Imaging or Surveillance among others. This paper proposes a FPGA-based
data collection and utilization framework that allows runtime platform and
application data to be sent to an edge and cloud system via data collection
agents running close to the platform. Agents are connected to a cloud system
able to train AI models to improve overall energy efficiency of an AI
application executed on a FPGA-based edge platform. In the implementation part
we show that it is feasible to collect relevant data from an FPGA platform,
transmit the data to a cloud system for processing and receiving feedback
actions to execute an edge AI application energy efficiently. As future work we
foresee the possibility to train, deploy and continuously improve a base model
able to efficiently adapt the execution of edge applications.
- Abstract(参考訳): IoTアプリケーションによって生成されるデータが爆発的に増加し続ける中、産業用モノのインターネット(IIoT)、自動運転、医療イメージング、監視といったパフォーマンスクリティカルなアプリケーションの応答時間、消費電力、コスト目標を満たすために、データソースにコンピューティングパワーを近づける必要性が高まっています。
本稿では,実行時プラットフォームとアプリケーションデータを,プラットフォームに近いデータ収集エージェントを介してエッジおよびクラウドシステムに送信可能なfpgaベースのデータ収集・利用フレームワークを提案する。
エージェントはクラウドシステムに接続され、AIモデルをトレーニングしてFPGAベースのエッジプラットフォーム上で実行されるAIアプリケーションの全体的なエネルギー効率を向上させることができる。
実装部では、FPGAプラットフォームから関連するデータを収集し、フィードバックアクションを処理して受信するクラウドシステムにデータを送信し、エッジAIアプリケーションエネルギを効率的に実行することが可能であることを示す。
今後の作業として、エッジアプリケーションの実行を効率的に適応できるベースモデルをトレーニングし、デプロイし、継続的に改善する可能性を予測します。
関連論文リスト
- Efficient Edge AI: Deploying Convolutional Neural Networks on FPGA with the Gemmini Accelerator [0.5714074111744111]
我々は、Gemminiアクセラレーターを用いて、FPGA(Field Programmable Gate Arrays)上にCNNを配置するためのエンドツーエンドワークフローを提示する。
Xilinx ZCU102 FPGA 上で YOLOv7 モデルを36.5 GOP/s/W のエネルギー効率で実装することにより,リアルタイムな性能を実現することができた。
論文 参考訳(メタデータ) (2024-08-14T09:24:00Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - EF-Train: Enable Efficient On-device CNN Training on FPGA Through Data
Reshaping for Online Adaptation or Personalization [11.44696439060875]
EF-Trainは、チャネルレベルの並列性に基づく畳み込みカーネルを統一した、効率的なDNNトレーニングアクセラレータである。
リソース制限された低消費電力エッジレベルFPGAのエンドツーエンドトレーニングを実現することができる。
我々の設計ではスループットとエネルギー効率の点で46.99GFLOPSと6.09GFLOPS/Wを実現している。
論文 参考訳(メタデータ) (2022-02-18T18:27:42Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - The MIT Supercloud Dataset [3.375826083518709]
我々は、大規模なHPCとデータセンター/クラウドオペレーションの分析において、革新的なAI/MLアプローチを促進することを目的とした、MIT Supercloudデータセットを紹介します。
我々は、ジョブ毎のCPUおよびGPU使用率、メモリ使用率、ファイルシステムログ、物理モニタリングデータを含む、MIT Supercloudシステムから詳細な監視ログを提供する。
本稿では,データセットの詳細,収集手法,データ可用性について論じ,このデータを用いて開発されている潜在的な課題について論じる。
論文 参考訳(メタデータ) (2021-08-04T13:06:17Z) - Reproducible Performance Optimization of Complex Applications on the
Edge-to-Cloud Continuum [55.6313942302582]
エッジ・ツー・クラウド・コンティニュム上でのリアルタイムアプリケーションの最適化を支援する手法を提案する。
提案手法は, 制御されたテストベッド環境において, その動作を理解するための厳密な構成解析に頼っている。
当社の方法論はEdge-to-Cloud Continuumの他のアプリケーションに一般化することができる。
論文 参考訳(メタデータ) (2021-08-04T07:35:14Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z) - Cost-effective Machine Learning Inference Offload for Edge Computing [0.3149883354098941]
本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
論文 参考訳(メタデータ) (2020-12-07T21:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。