論文の概要: CoEdge: Cooperative DNN Inference with Adaptive Workload Partitioning
over Heterogeneous Edge Devices
- arxiv url: http://arxiv.org/abs/2012.03257v1
- Date: Sun, 6 Dec 2020 13:15:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:51:29.202777
- Title: CoEdge: Cooperative DNN Inference with Adaptive Workload Partitioning
over Heterogeneous Edge Devices
- Title(参考訳): CoEdge: 異種エッジデバイス上での適応的ワークロード分割を用いた協調DNN推論
- Authors: Liekang Zeng, Xu Chen, Zhi Zhou, Lei Yang, Junshan Zhang
- Abstract要約: CoEdgeは、異種エッジデバイス上での協調推論をオーケストレーションする分散ディープニューラルネットワーク(DNN)コンピューティングシステムである。
CoEdgeは4つの広く採用されているCNNモデルに対して25.5%66.9%のエネルギー削減を実現し、予測遅延を短くして省エネする。
- 参考スコア(独自算出の注目度): 39.09319776243573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in artificial intelligence have driven increasing intelligent
applications at the network edge, such as smart home, smart factory, and smart
city. To deploy computationally intensive Deep Neural Networks (DNNs) on
resource-constrained edge devices, traditional approaches have relied on either
offloading workload to the remote cloud or optimizing computation at the end
device locally. However, the cloud-assisted approaches suffer from the
unreliable and delay-significant wide-area network, and the local computing
approaches are limited by the constrained computing capability. Towards
high-performance edge intelligence, the cooperative execution mechanism offers
a new paradigm, which has attracted growing research interest recently. In this
paper, we propose CoEdge, a distributed DNN computing system that orchestrates
cooperative DNN inference over heterogeneous edge devices. CoEdge utilizes
available computation and communication resources at the edge and dynamically
partitions the DNN inference workload adaptive to devices' computing
capabilities and network conditions. Experimental evaluations based on a
realistic prototype show that CoEdge outperforms status-quo approaches in
saving energy with close inference latency, achieving up to 25.5%~66.9% energy
reduction for four widely-adopted CNN models.
- Abstract(参考訳): 最近の人工知能の進歩は、スマートホームやスマートファクトリー、スマートシティなど、ネットワークエッジにおけるインテリジェントなアプリケーションの増加を促している。
リソース制約のあるエッジデバイスに計算集約的なディープニューラルネットワーク(DNN)をデプロイするために、従来のアプローチでは、ワークロードをリモートクラウドにオフロードするか、エンドデバイスでの計算をローカルに最適化するかのいずれかに頼っている。
しかし、クラウド支援アプローチは信頼性の低い広域ネットワークに悩まされ、ローカルコンピューティングアプローチは制約された計算能力によって制限される。
高性能エッジインテリジェンスを目指して、協調実行機構は新しいパラダイムを提供し、近年研究の関心が高まりつつある。
本稿では,異種エッジデバイス上での協調DNN推論をオーケストレーションする分散DNN計算システムであるCoEdgeを提案する。
CoEdgeはエッジで利用可能な計算と通信資源を利用し、デバイスのコンピューティング能力とネットワーク条件に適応したDNN推論ワークロードを動的に分割する。
現実的なプロトタイプに基づく実験的評価により、coedgeは4つの広く採用されているcnnモデルで最大25.5%~66.9%のエネルギー削減を達成した。
関連論文リスト
- SpikeBottleNet: Spike-Driven Feature Compression Architecture for Edge-Cloud Co-Inference [0.86325068644655]
エッジクラウドコ推論システムのための新しいアーキテクチャであるSpikeBottleNetを提案する。
SpikeBottleNetはスパイクニューロンモデルを統合し、エッジデバイスのエネルギー消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-10-11T09:59:21Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Decentralized Low-Latency Collaborative Inference via Ensembles on the
Edge [28.61344039233783]
本稿では,複数のユーザが推論中に協力して精度を向上させることで,エッジ上でのディープニューラルネットワーク(DNN)の適用を容易にすることを提案する。
私たちのメカニズムは、エッジアンサンブル(em edge ensembles)と呼ばれ、各デバイスに様々な予測子を持ち、推論中にモデルのアンサンブルを形成する。
エッジアンサンブルによって引き起こされる遅延を分析し、その性能改善は、通信ネットワーク上の一般的な前提の下で、わずかな追加遅延のコストで生じることを示す。
論文 参考訳(メタデータ) (2022-06-07T10:24:20Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Latency-Memory Optimized Splitting of Convolution Neural Networks for
Resource Constrained Edge Devices [1.6873748786804317]
我々は、エッジデバイスとクラウド間でCNNを実行することは、リソース制約のある最適化問題を解決することと同義であると主張している。
実世界のエッジデバイスでの実験では、LMOSはエッジで異なるCNNモデルの実行可能な実行を保証する。
論文 参考訳(メタデータ) (2021-07-19T19:39:56Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z) - Joint Multi-User DNN Partitioning and Computational Resource Allocation
for Collaborative Edge Intelligence [21.55340197267767]
Mobile Edge Computing(MEC)は、ネットワークエッジにさまざまなリソースを提供する有望なサポートアーキテクチャとして登場した。
エッジサーバの助けを借りて、ユーザ機器(UE)はディープニューラルネットワーク(DNN)ベースのAIアプリケーションを実行することができる。
最適解を時間内に達成できるIAO (Iterative Alternating Optimization) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-15T09:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。