論文の概要: Joint Multi-User DNN Partitioning and Computational Resource Allocation
for Collaborative Edge Intelligence
- arxiv url: http://arxiv.org/abs/2007.09072v1
- Date: Wed, 15 Jul 2020 09:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 06:47:29.964705
- Title: Joint Multi-User DNN Partitioning and Computational Resource Allocation
for Collaborative Edge Intelligence
- Title(参考訳): 協調エッジインテリジェンスのためのマルチユーザDNN分割と計算資源配分
- Authors: Xin Tang and Xu Chen and Liekang Zeng and Shuai Yu and Lin Chen
- Abstract要約: Mobile Edge Computing(MEC)は、ネットワークエッジにさまざまなリソースを提供する有望なサポートアーキテクチャとして登場した。
エッジサーバの助けを借りて、ユーザ機器(UE)はディープニューラルネットワーク(DNN)ベースのAIアプリケーションを実行することができる。
最適解を時間内に達成できるIAO (Iterative Alternating Optimization) アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 21.55340197267767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile Edge Computing (MEC) has emerged as a promising supporting
architecture providing a variety of resources to the network edge, thus acting
as an enabler for edge intelligence services empowering massive mobile and
Internet of Things (IoT) devices with AI capability. With the assistance of
edge servers, user equipments (UEs) are able to run deep neural network (DNN)
based AI applications, which are generally resource-hungry and
compute-intensive, such that an individual UE can hardly afford by itself in
real time. However the resources in each individual edge server are typically
limited. Therefore, any resource optimization involving edge servers is by
nature a resource-constrained optimization problem and needs to be tackled in
such realistic context. Motivated by this observation, we investigate the
optimization problem of DNN partitioning (an emerging DNN offloading scheme) in
a realistic multi-user resource-constrained condition that rarely considered in
previous works. Despite the extremely large solution space, we reveal several
properties of this specific optimization problem of joint multi-UE DNN
partitioning and computational resource allocation. We propose an algorithm
called Iterative Alternating Optimization (IAO) that can achieve the optimal
solution in polynomial time. In addition, we present rigorous theoretic
analysis of our algorithm in terms of time complexity and performance under
realistic estimation error. Moreover, we build a prototype that implements our
framework and conduct extensive experiments using realistic DNN models, whose
results demonstrate its effectiveness and efficiency.
- Abstract(参考訳): モバイルエッジコンピューティング(MEC)は、ネットワークエッジにさまざまなリソースを提供する有望なサポートアーキテクチャとして登場した。これにより、巨大なモバイルとIoT(Internet of Things)デバイスにAI機能を備えたエッジインテリジェンスサービスの有効化手段として機能する。
エッジサーバの助けを借りて、ユーザ機器(UE)はディープニューラルネットワーク(DNN)ベースのAIアプリケーションを実行することができる。
しかし、各エッジサーバのリソースは通常制限されている。
したがって、エッジサーバを含むリソース最適化は、本質的にリソース制約付き最適化の問題であり、そのような現実的な状況で取り組む必要がある。
本研究の目的は,DNNパーティショニング(新たなDNNオフロード方式)の現実的なマルチユーザリソース制約条件における最適化問題について考察することである。
非常に大きな解空間にもかかわらず、マルチue dnn分割と計算資源割当という、この特定の最適化問題のいくつかの性質を明らかにした。
本稿では,最適解を多項式時間で実現できるIAO (Iterative Alternating Optimization) アルゴリズムを提案する。
さらに,現実的な推定誤差下での時間複雑性と性能の観点から,アルゴリズムの厳密な理論解析を行う。
さらに,このフレームワークを実装し,実効性と効率性を示す現実的なdnnモデルを用いて広範な実験を行うプロトタイプを構築した。
関連論文リスト
- A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - GNN at the Edge: Cost-Efficient Graph Neural Network Processing over
Distributed Edge Servers [24.109721494781592]
グラフニューラルネットワーク(GNN)はまだ探索中であり、その広範な採用に対する大きな違いを示している。
本稿では,多層ヘテロジニアスエッジネットワーク上での分散GNN処理のコスト最適化について検討する。
提案手法は, 高速収束速度で95.8%以上のコスト削減を行い, デファクトベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-10-31T13:03:16Z) - Complexity-Driven CNN Compression for Resource-constrained Edge AI [1.6114012813668934]
本稿では,CNNの層レベルでの複雑さを生かして,新しい,計算効率の高いプルーニングパイプラインを提案する。
パラメータ認識(PA)、FLOP認識(FA)、メモリ認識(MA)の3つのモードを定義し、CNNの汎用圧縮を導入する。
論文 参考訳(メタデータ) (2022-08-26T16:01:23Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Latency-Memory Optimized Splitting of Convolution Neural Networks for
Resource Constrained Edge Devices [1.6873748786804317]
我々は、エッジデバイスとクラウド間でCNNを実行することは、リソース制約のある最適化問題を解決することと同義であると主張している。
実世界のエッジデバイスでの実験では、LMOSはエッジで異なるCNNモデルの実行可能な実行を保証する。
論文 参考訳(メタデータ) (2021-07-19T19:39:56Z) - CoEdge: Cooperative DNN Inference with Adaptive Workload Partitioning
over Heterogeneous Edge Devices [39.09319776243573]
CoEdgeは、異種エッジデバイス上での協調推論をオーケストレーションする分散ディープニューラルネットワーク(DNN)コンピューティングシステムである。
CoEdgeは4つの広く採用されているCNNモデルに対して25.5%66.9%のエネルギー削減を実現し、予測遅延を短くして省エネする。
論文 参考訳(メタデータ) (2020-12-06T13:15:52Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z) - Optimizing Wireless Systems Using Unsupervised and
Reinforced-Unsupervised Deep Learning [96.01176486957226]
無線ネットワークにおけるリソース割り当てとトランシーバーは、通常最適化問題の解決によって設計される。
本稿では,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2020-01-03T11:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。