論文の概要: Scission: Performance-driven and Context-aware Cloud-Edge Distribution
of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2008.03523v2
- Date: Wed, 16 Dec 2020 19:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 12:23:59.190878
- Title: Scission: Performance-driven and Context-aware Cloud-Edge Distribution
of Deep Neural Networks
- Title(参考訳): scission:ディープニューラルネットワークのパフォーマンス駆動およびコンテキスト対応クラウドエッジ分散
- Authors: Luke Lockhart and Paul Harvey and Pierre Imai and Peter Willis and
Blesson Varghese
- Abstract要約: 本稿では,対象とするデバイス,エッジ,クラウドリソースのセット上で,ディープニューラルネットワーク(DNN)の自動ベンチマークを行うツールであるScisionを提案する。
意思決定のアプローチは、ターゲットリソースのハードウェア機能を活用することによって、コンテキスト認識である。
Scissionのベンチマークのオーバーヘッドにより、リアルタイムではなく、定期的に運用上の変更に対応することができる。
- 参考スコア(独自算出の注目度): 1.2949520455740093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partitioning and distributing deep neural networks (DNNs) across end-devices,
edge resources and the cloud has a potential twofold advantage: preserving
privacy of the input data, and reducing the ingress bandwidth demand beyond the
edge. However, for a given DNN, identifying the optimal partition configuration
for distributing the DNN that maximizes performance is a significant challenge.
This is because the combination of potential target hardware resources that
maximizes performance and the sequence of layers of the DNN that should be
distributed across the target resources needs to be determined, while
accounting for user-defined objectives/constraints for partitioning. This paper
presents Scission, a tool for automated benchmarking of DNNs on a given set of
target device, edge and cloud resources for determining optimal partitions that
maximize DNN performance. The decision-making approach is context-aware by
capitalizing on hardware capabilities of the target resources, their locality,
the characteristics of DNN layers, and the network condition. Experimental
studies are carried out on 18 DNNs. The decisions made by Scission cannot be
manually made by a human given the complexity and the number of dimensions
affecting the search space. The benchmarking overheads of Scission allow for
responding to operational changes periodically rather than in real-time.
Scission is available for public download at
https://github.com/qub-blesson/Scission.
- Abstract(参考訳): エンドユーザ、エッジリソース、クラウドにまたがるディープニューラルネットワーク(dnn)の分割と配布には、入力データのプライバシの保護と、エッジを越えた入力帯域幅の削減という2つのメリットがある。
しかし、与えられたDNNに対して、パフォーマンスを最大化するDNNを配布するための最適なパーティション構成を特定することは大きな課題である。
これは、パフォーマンスを最大化する潜在的対象のハードウェアリソースと、ターゲットのリソースに分散されるべきDNNの層列との組み合わせを決定する必要があるためであり、また、パーティショニングのためのユーザ定義の目的/制約も考慮する必要がある。
本稿では,DNNの性能を最大化する最適なパーティションを決定するための,特定のターゲットデバイス,エッジ,クラウドリソースに対して,DNNの自動ベンチマークツールであるScisionを提案する。
意思決定のアプローチは、ターゲットリソースのハードウェア能力、その局所性、DNN層の特徴、ネットワーク条件を活かして、コンテキストに適応する。
実験は18のDNNで行われている。
Scisionによる決定は、検索空間に影響を及ぼす複雑さと次元の数から、人間が手動で行うことはできない。
Scissionのベンチマークのオーバーヘッドにより、リアルタイムではなく、定期的に運用上の変更に対応することができる。
scissionはhttps://github.com/qub-blesson/scissionからダウンロードできる。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Combining Multi-Objective Bayesian Optimization with Reinforcement Learning for TinyML [4.2019872499238256]
マルチオブジェクトベイズ最適化(MOBOpt)に基づくマイクロコントローラ(TinyML)にディープニューラルネットワークをデプロイするための新しい戦略を提案する。
本手法は,DNNの予測精度,メモリ消費量,計算複雑性のトレードオフを効率的に検出することを目的としている。
論文 参考訳(メタデータ) (2023-05-23T14:31:52Z) - A Survey on Deep Neural Network Partition over Cloud, Edge and End
Devices [6.248548718574856]
ディープニューラルネットワーク(DNN)パーティションは、DNNを複数の部分に分割し、特定の場所にオフロードする研究問題である。
本稿では,クラウド,エッジ,エンドデバイス上でのDNNパーティションアプローチの最近の進歩と課題について,包括的調査を行う。
論文 参考訳(メタデータ) (2023-04-20T00:17:27Z) - DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators [0.9556128246747769]
安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の役割は拡大している。
DNNは計算能力の面で大きく成長している。
これは、DNNアクセラレーターの信頼性を向上させる必要性を高める。
論文 参考訳(メタデータ) (2023-03-14T20:42:38Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Dynamic DNN Decomposition for Lossless Synergistic Inference [0.9549013615433989]
ディープニューラルネットワーク(DNN)は、今日のデータ処理アプリケーションで高性能を維持します。
精度損失のない相乗的推論のための動的DNN分解システムD3を提案する。
d3は最先端のdnn推論時間を最大3.4倍に上回り、バックボーンネットワーク通信のオーバーヘッドを3.68倍に削減する。
論文 参考訳(メタデータ) (2021-01-15T03:18:53Z) - A Case For Adaptive Deep Neural Networks in Edge Computing [1.683310745678261]
本稿では,エッジコンピューティングにおいて適応型ディープニューラルネットワーク(DNN)が存在するかを検討する。
その結果,ネットワーク条件がCPUやメモリ関連動作条件よりもDNNの性能に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2020-08-04T20:23:50Z) - Resource Allocation via Graph Neural Networks in Free Space Optical
Fronthaul Networks [119.81868223344173]
本稿では,自由空間光(FSO)フロントホールネットワークにおける最適資源割り当てについて検討する。
我々は、FSOネットワーク構造を利用するために、ポリシーパラメータ化のためのグラフニューラルネットワーク(GNN)を検討する。
本アルゴリズムは,システムモデルに関する知識が不要なモデルフリーでGNNを訓練するために開発された。
論文 参考訳(メタデータ) (2020-06-26T14:20:48Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。