論文の概要: A Survey on Deep Neural Network Partition over Cloud, Edge and End
Devices
- arxiv url: http://arxiv.org/abs/2304.10020v1
- Date: Thu, 20 Apr 2023 00:17:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 14:58:25.596614
- Title: A Survey on Deep Neural Network Partition over Cloud, Edge and End
Devices
- Title(参考訳): クラウド,エッジ,エンドデバイス上でのディープニューラルネットワーク分割に関する調査
- Authors: Di Xu, Xiang He, Tonghua Su, Zhongjie Wang
- Abstract要約: ディープニューラルネットワーク(DNN)パーティションは、DNNを複数の部分に分割し、特定の場所にオフロードする研究問題である。
本稿では,クラウド,エッジ,エンドデバイス上でのDNNパーティションアプローチの最近の進歩と課題について,包括的調査を行う。
- 参考スコア(独自算出の注目度): 6.248548718574856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural network (DNN) partition is a research problem that involves
splitting a DNN into multiple parts and offloading them to specific locations.
Because of the recent advancement in multi-access edge computing and edge
intelligence, DNN partition has been considered as a powerful tool for
improving DNN inference performance when the computing resources of edge and
end devices are limited and the remote transmission of data from these devices
to clouds is costly. This paper provides a comprehensive survey on the recent
advances and challenges in DNN partition approaches over the cloud, edge, and
end devices based on a detailed literature collection. We review how DNN
partition works in various application scenarios, and provide a unified
mathematical model of the DNN partition problem. We developed a
five-dimensional classification framework for DNN partition approaches,
consisting of deployment locations, partition granularity, partition
constraints, optimization objectives, and optimization algorithms. Each
existing DNN partition approache can be perfectly defined in this framework by
instantiating each dimension into specific values. In addition, we suggest a
set of metrics for comparing and evaluating the DNN partition approaches. Based
on this, we identify and discuss research challenges that have not yet been
investigated or fully addressed. We hope that this work helps DNN partition
researchers by highlighting significant future research directions in this
domain.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)パーティションは、DNNを複数の部分に分割し、特定の場所にオフロードする研究問題である。
近年のマルチアクセスエッジコンピューティングとエッジインテリジェンスの発展により、エッジとエンドデバイスのコンピューティングリソースが制限され、これらのデバイスからクラウドへのリモート転送がコストがかかる場合、DNNパーティションは、DNN推論性能を改善する強力なツールとして考えられてきた。
本稿では,クラウド,エッジ,エンドデバイス上でのDNNパーティションアプローチの最近の進歩と課題を,詳細な文献収集に基づいて包括的に調査する。
DNNパーティションが様々なアプリケーションシナリオでどのように機能するかをレビューし、DNNパーティション問題の統一的な数学的モデルを提供する。
我々は,dnn分割手法のための5次元分類フレームワークを開発した。配置位置,分割粒度,分割制約,最適化目標,最適化アルゴリズムからなる。
既存のDNNパーティションアプローチは、それぞれの次元を特定の値にインスタンス化することで、このフレームワークで完全に定義できます。
さらに、DNNパーティションアプローチの比較と評価のための指標セットを提案する。
これに基づいて,まだ調査されていない,あるいは完全に対処されていない研究課題を特定し,議論する。
この研究がDNNの研究者の分断に役立つことを期待している。
関連論文リスト
- DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Salted Inference: Enhancing Privacy while Maintaining Efficiency of
Split Inference in Mobile Computing [8.915849482780631]
分割推論では、ディープニューラルネットワーク(DNN)が分割され、DNNの初期段階をエッジで、DNNの後半をクラウドで実行する。
これはオンデバイス機械学習の2つの重要な要件を満たす:入力のプライバシと計算効率である。
本稿では,DNNの初期部分を実行するエッジのクライアントに対して,推論時にDNNの出力のセマンティック解釈を制御する,新たなアプローチであるSalted DNNを紹介する。
論文 参考訳(メタデータ) (2023-10-20T09:53:55Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - Number Systems for Deep Neural Network Architectures: A Survey [1.4260605984981944]
ディープニューラルネットワーク(DNN)は、無数の人工知能アプリケーションで実現可能なコンポーネントとなっている。
DNNは、自動運転車や健康アプリケーションなどのケースにおいて、人間よりも優れたパフォーマンスを示すことがある。
論文 参考訳(メタデータ) (2023-07-11T06:19:25Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - Dynamic DNN Decomposition for Lossless Synergistic Inference [0.9549013615433989]
ディープニューラルネットワーク(DNN)は、今日のデータ処理アプリケーションで高性能を維持します。
精度損失のない相乗的推論のための動的DNN分解システムD3を提案する。
d3は最先端のdnn推論時間を最大3.4倍に上回り、バックボーンネットワーク通信のオーバーヘッドを3.68倍に削減する。
論文 参考訳(メタデータ) (2021-01-15T03:18:53Z) - SyReNN: A Tool for Analyzing Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(DNN)は、さまざまな重要なドメインで急速に人気を集めています。
本稿では,そのシンボル表現を計算してDNNの理解と分析を行うSyReNNを紹介する。
論文 参考訳(メタデータ) (2021-01-09T00:27:23Z) - Scission: Performance-driven and Context-aware Cloud-Edge Distribution
of Deep Neural Networks [1.2949520455740093]
本稿では,対象とするデバイス,エッジ,クラウドリソースのセット上で,ディープニューラルネットワーク(DNN)の自動ベンチマークを行うツールであるScisionを提案する。
意思決定のアプローチは、ターゲットリソースのハードウェア機能を活用することによって、コンテキスト認識である。
Scissionのベンチマークのオーバーヘッドにより、リアルタイムではなく、定期的に運用上の変更に対応することができる。
論文 参考訳(メタデータ) (2020-08-08T13:39:57Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。