論文の概要: A Case For Adaptive Deep Neural Networks in Edge Computing
- arxiv url: http://arxiv.org/abs/2008.01814v2
- Date: Wed, 16 Dec 2020 14:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 01:18:14.571141
- Title: A Case For Adaptive Deep Neural Networks in Edge Computing
- Title(参考訳): エッジコンピューティングにおける適応型ディープニューラルネットワークの事例
- Authors: Francis McNamee and Schahram Dustadar and Peter Kilpatrick and Weisong
Shi and Ivor Spence and Blesson Varghese
- Abstract要約: 本稿では,エッジコンピューティングにおいて適応型ディープニューラルネットワーク(DNN)が存在するかを検討する。
その結果,ネットワーク条件がCPUやメモリ関連動作条件よりもDNNの性能に影響を及ぼすことがわかった。
- 参考スコア(独自算出の注目度): 1.683310745678261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge computing offers an additional layer of compute infrastructure closer to
the data source before raw data from privacy-sensitive and performance-critical
applications is transferred to a cloud data center. Deep Neural Networks (DNNs)
are one class of applications that are reported to benefit from collaboratively
computing between the edge and the cloud. A DNN is partitioned such that
specific layers of the DNN are deployed onto the edge and the cloud to meet
performance and privacy objectives. However, there is limited understanding of:
(a) whether and how evolving operational conditions (increased CPU and memory
utilization at the edge or reduced data transfer rates between the edge and the
cloud) affect the performance of already deployed DNNs, and (b) whether a new
partition configuration is required to maximize performance. A DNN that adapts
to changing operational conditions is referred to as an 'adaptive DNN'. This
paper investigates whether there is a case for adaptive DNNs in edge computing
by considering three questions: (i) Are DNNs sensitive to operational
conditions? (ii) How sensitive are DNNs to operational conditions? (iii) Do
individual or a combination of operational conditions equally affect DNNs? (iv)
Is DNN partitioning sensitive to hardware architectures on the cloud/edge? The
exploration is carried out in the context of 8 pre-trained DNN models and the
results presented are from analyzing nearly 8 million data points. The results
highlight that network conditions affects DNN performance more than CPU or
memory related operational conditions. Repartitioning is noted to provide a
performance gain in a number of cases, but a specific trend was not noted in
relation to its correlation to the underlying hardware architecture.
Nonetheless, the need for adaptive DNNs is confirmed.
- Abstract(参考訳): エッジコンピューティングは、プライバシに敏感でパフォーマンスクリティカルなアプリケーションの生データをクラウドデータセンタに転送する前に、データソースに近いコンピューティングインフラストラクチャの追加層を提供する。
Deep Neural Networks(DNN)は、エッジとクラウド間の協調的なコンピューティングの恩恵を受けると報告されているアプリケーションのひとつだ。
DNNは、パフォーマンスとプライバシの目的を満たすために、DNNの特定のレイヤがエッジとクラウドにデプロイされるように分割される。
しかし、その理解は限られている。
(a)すでにデプロイされているDNNの性能に、運用条件(エッジでのCPUとメモリ利用の増加、エッジとクラウド間のデータ転送率の低下)がどう影響するか、そして、
b) 新しいパーティション構成がパフォーマンスを最大化するために必要かどうか。
運用条件の変更に対応するDNNは、"adaptive DNN"と呼ばれる。
本稿では,エッジコンピューティングに適応的なDNNが存在するかどうかを3つの質問から検討する。
(i)DNNは運用条件に敏感か?
(ii)DNNは運用条件に対してどの程度敏感か?
三 個別又は運用条件の組み合わせがDNNに等しく影響を及ぼすか。
(iv) DNNパーティショニングはクラウド/エッジのハードウェアアーキテクチャに敏感か?
8つの事前訓練されたDNNモデルのコンテキストで探索を行い、結果が800万近いデータポイントの分析から得られた。
その結果,ネットワーク条件がCPUやメモリ関連動作条件よりもDNNの性能に影響することが明らかになった。
再分割は、いくつかのケースでパフォーマンス向上をもたらすことが知られているが、基盤となるハードウェアアーキテクチャとの相関関係に関して、特定の傾向は言及されなかった。
それでも適応的なDNNの必要性は確認されている。
関連論文リスト
- MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment [54.77943671991863]
MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
論文 参考訳(メタデータ) (2024-02-21T04:43:12Z) - Salted Inference: Enhancing Privacy while Maintaining Efficiency of
Split Inference in Mobile Computing [8.915849482780631]
分割推論では、ディープニューラルネットワーク(DNN)が分割され、DNNの初期段階をエッジで、DNNの後半をクラウドで実行する。
これはオンデバイス機械学習の2つの重要な要件を満たす:入力のプライバシと計算効率である。
本稿では,DNNの初期部分を実行するエッジのクライアントに対して,推論時にDNNの出力のセマンティック解釈を制御する,新たなアプローチであるSalted DNNを紹介する。
論文 参考訳(メタデータ) (2023-10-20T09:53:55Z) - SAfER: Layer-Level Sensitivity Assessment for Efficient and Robust
Neural Network Inference [20.564198591600647]
ディープニューラルネットワーク(DNN)は、ほとんどのコンピュータビジョンタスクにおいて優れたパフォーマンスを示す。
自律運転や医療画像などの重要な応用には、その行動の調査も必要である。
DNNの属性は、DNNの予測と入力の関係を研究することである。
論文 参考訳(メタデータ) (2023-08-09T07:45:51Z) - A Survey on Deep Neural Network Partition over Cloud, Edge and End
Devices [6.248548718574856]
ディープニューラルネットワーク(DNN)パーティションは、DNNを複数の部分に分割し、特定の場所にオフロードする研究問題である。
本稿では,クラウド,エッジ,エンドデバイス上でのDNNパーティションアプローチの最近の進歩と課題について,包括的調査を行う。
論文 参考訳(メタデータ) (2023-04-20T00:17:27Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Dynamic DNN Decomposition for Lossless Synergistic Inference [0.9549013615433989]
ディープニューラルネットワーク(DNN)は、今日のデータ処理アプリケーションで高性能を維持します。
精度損失のない相乗的推論のための動的DNN分解システムD3を提案する。
d3は最先端のdnn推論時間を最大3.4倍に上回り、バックボーンネットワーク通信のオーバーヘッドを3.68倍に削減する。
論文 参考訳(メタデータ) (2021-01-15T03:18:53Z) - Scission: Performance-driven and Context-aware Cloud-Edge Distribution
of Deep Neural Networks [1.2949520455740093]
本稿では,対象とするデバイス,エッジ,クラウドリソースのセット上で,ディープニューラルネットワーク(DNN)の自動ベンチマークを行うツールであるScisionを提案する。
意思決定のアプローチは、ターゲットリソースのハードウェア機能を活用することによって、コンテキスト認識である。
Scissionのベンチマークのオーバーヘッドにより、リアルタイムではなく、定期的に運用上の変更に対応することができる。
論文 参考訳(メタデータ) (2020-08-08T13:39:57Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。