論文の概要: Multi-DNN Accelerators for Next-Generation AI Systems
- arxiv url: http://arxiv.org/abs/2205.09376v1
- Date: Thu, 19 May 2022 08:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 14:19:17.674253
- Title: Multi-DNN Accelerators for Next-Generation AI Systems
- Title(参考訳): 次世代AIシステムのためのマルチDNN加速器
- Authors: Stylianos I. Venieris and Christos-Savvas Bouganis and Nicholas D.
Lane
- Abstract要約: AI技術の第一のドライバはディープニューラルネットワーク(DNN)である
次世代のAIシステムは、コアにマルチDNNワークロードを持つことになる。
- 参考スコア(独自算出の注目度): 19.990158911318247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the use of AI-powered applications widens across multiple domains, so do
increase the computational demands. Primary driver of AI technology are the
deep neural networks (DNNs). When focusing either on cloud-based systems that
serve multiple AI queries from different users each with their own DNN model,
or on mobile robots and smartphones employing pipelines of various models or
parallel DNNs for the concurrent processing of multi-modal data, the next
generation of AI systems will have multi-DNN workloads at their core.
Large-scale deployment of AI services and integration across mobile and
embedded systems require additional breakthroughs in the computer architecture
front, with processors that can maintain high performance as the number of DNNs
increases while meeting the quality-of-service requirements, giving rise to the
topic of multi-DNN accelerator design.
- Abstract(参考訳): AIによるアプリケーションの利用が複数のドメインにまたがるにつれて、計算要求が増大する。
AI技術の第一のドライバはディープニューラルネットワーク(DNN)である。
異なるユーザからの複数のAIクエリをそれぞれ独自のDNNモデルで処理するクラウドベースのシステムや、さまざまなモデルのパイプラインやマルチモーダルデータの並列処理に並列DNNを使用するモバイルロボットやスマートフォンに注目する場合、次世代のAIシステムはコアにマルチDNNワークロードを持つことになる。
AIサービスの大規模展開とモバイルおよび組み込みシステム間の統合は、コンピュータアーキテクチャの面でさらなるブレークスルーを必要とし、DNNの品質要件を満たしながらDNNの数が増加するにつれて高いパフォーマンスを維持するプロセッサによって、マルチDNNアクセラレータ設計のトピックがもたらされる。
関連論文リスト
- Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Large Language Models Empowered Autonomous Edge AI for Connected
Intelligence [51.269276328087855]
エッジ人工知能(Edge AI)は、コネクテッドインテリジェンスを実現するための有望なソリューションである。
この記事では、ユーザのさまざまな要件を満たすために自動的に組織化し、適応し、最適化する、自律的なエッジAIシステムのビジョンを示す。
論文 参考訳(メタデータ) (2023-07-06T05:16:55Z) - Optical multi-task learning using multi-wavelength diffractive deep
neural networks [8.543496127018567]
フォトニックニューラルネットワークは、電子の代わりに光子を使って脳にインスパイアされた情報処理技術である。
既存のアーキテクチャは単一のタスク用に設計されているが、単一のモノリシックシステム内で異なるタスクを並列に多重化できない。
本稿では,多波長拡散型深層ニューラルネットワーク(D2NN)を共同最適化法により設計し,新しいマルチタスク学習システムを提案する。
論文 参考訳(メタデータ) (2022-11-30T14:27:14Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Enabling Deep Learning on Edge Devices [2.741266294612776]
ディープニューラルネットワーク(DNN)は、コンピュータビジョン、自然言語処理、強化学習など、多くの異なる認識タスクに成功している。
高性能DNNは資源消費に大きく依存している。
近年、AR/VR、モバイルアシスタント、モノのインターネットなど、新たなインテリジェントなアプリケーションでは、リソース制約のあるエッジデバイスにDNNをデプロイする必要があります。
この論文では,エッジデバイスへの推論,エッジデバイスへの適応,エッジデバイスへの学習,エッジサーバシステムという4つのエッジインテリジェンスシナリオについて検討した。
論文 参考訳(メタデータ) (2022-10-06T20:52:57Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - How to Reach Real-Time AI on Consumer Devices? Solutions for
Programmable and Custom Architectures [7.085772863979686]
ディープニューラルネットワーク(DNN)は、オブジェクトや音声認識など、さまざまな人工知能(AI)推論タスクにおいて大きな進歩をもたらした。
このようなAIモデルをコモディティデバイスにデプロイすることは、大きな課題に直面している。
クロススタック手法によりリアルタイムな性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T11:23:12Z) - Efficient Low-Latency Dynamic Licensing for Deep Neural Network
Deployment on Edge Devices [0.0]
エッジデバイス上でのディープニューラルネットワークの展開と処理を解決するアーキテクチャを提案する。
このアーキテクチャを採用することで、デバイスの低レイテンシモデル更新が可能になる。
論文 参考訳(メタデータ) (2021-02-24T09:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。