論文の概要: Split Computing and Early Exiting for Deep Learning Applications: Survey
and Research Challenges
- arxiv url: http://arxiv.org/abs/2103.04505v1
- Date: Mon, 8 Mar 2021 01:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:13:36.105922
- Title: Split Computing and Early Exiting for Deep Learning Applications: Survey
and Research Challenges
- Title(参考訳): ディープラーニングアプリケーションのためのスプリットコンピューティングとアーリーエグジット:調査と研究課題
- Authors: Yoshitomo Matsubara, Marco Levorato, Francesco Restuccia
- Abstract要約: 我々はスプリットコンピューティング(SC)とアーリーエグジット(EE)戦略における技術の現状を包括的に調査する。
近年,ディープニューラルネットワークを,モバイルデバイスとエッジデバイスでそれぞれ実行されるヘッドモデルとテールモデルに分割する手法が提案されている。
EEは、アーキテクチャの初期に複数の"出口"を示すようにモデルを訓練し、それぞれが目標の精度をますます高めている。
- 参考スコア(独自算出の注目度): 18.103754866476088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile devices such as smartphones and autonomous vehicles increasingly rely
on deep neural networks (DNNs) to execute complex inference tasks such as image
classification and speech recognition, among others. However, continuously
executing the entire DNN on the mobile device can quickly deplete its battery.
Although task offloading to edge devices may decrease the mobile device's
computational burden, erratic patterns in channel quality, network and edge
server load can lead to a significant delay in task execution. Recently,
approaches based on split computing (SC) have been proposed, where the DNN is
split into a head and a tail model, executed respectively on the mobile device
and on the edge device. Ultimately, this may reduce bandwidth usage as well as
energy consumption. Another approach, called early exiting (EE), trains models
to present multiple "exits" earlier in the architecture, each providing
increasingly higher target accuracy. Therefore, the trade-off between accuracy
and delay can be tuned according to the current conditions or application
demands. In this paper, we provide a comprehensive survey of the state of the
art in SC and EE strategies, by presenting a comparison of the most relevant
approaches. We conclude the paper by providing a set of compelling research
challenges.
- Abstract(参考訳): スマートフォンや自動運転車などのモバイルデバイスは、画像分類や音声認識などの複雑な推論タスクを実行するために、ディープニューラルネットワーク(DNN)にますます依存している。
しかし、モバイルデバイス上で連続的にDNNを実行すると、すぐにバッテリーが枯渇する。
エッジデバイスへのタスクオフロードは、モバイルデバイスの計算負担を減少させる可能性があるが、チャネル品質、ネットワーク、エッジサーバの負荷の不安定なパターンは、タスクの実行を著しく遅らせる可能性がある。
近年、スプリットコンピューティング(SC)に基づくアプローチが提案され、DNNはそれぞれモバイルデバイスとエッジデバイスで実行されるヘッドとテールモデルに分割される。
究極的には、帯域幅の使用量とエネルギー消費を削減できる。
もう一つのアプローチはearly exiting (ee)と呼ばれ、アーキテクチャの早い段階で複数の"exits"を示すモデルを訓練し、それぞれがより高いターゲット精度を提供する。
したがって、現在の状況やアプリケーション要求に応じて精度と遅延のトレードオフを調整できる。
本論文では、SCおよびEE戦略における最先端の動向を総合的に調査し、最も関連性の高いアプローチの比較について紹介する。
我々は、説得力のある研究課題のセットを提供することで、論文を締めくくる。
関連論文リスト
- Enhancing Split Computing and Early Exit Applications through Predefined Sparsity [12.293736644405937]
Deep Neural Networks(DNN)は、オブジェクト分類やアクション認識からスマートビルディングやヘルスケアまで、幅広い問題で最先端のパフォーマンスを達成した。
計算要件は、リソースに制約のあるエッジデバイスへのデプロイメントを妨げます。
本稿では,事前定義された空間性の概念とスプリットコンピューティング(SC)とEarly Exit(EE)を組み合わせることで,この問題に対処する新しいアプローチを提案する。
実験の結果, 性能を損なうことなく, 記憶量と計算複雑性を4倍に削減できることがわかった。
論文 参考訳(メタデータ) (2024-07-16T14:24:04Z) - AccEPT: An Acceleration Scheme for Speeding Up Edge Pipeline-parallel
Training [22.107070114339038]
本稿では,エッジ協調パイプライン並列トレーニングを高速化するアクセラレーションスキームであるAccEPTを提案する。
特に,異なるデバイスにおける各レイヤの遅延を正確に推定する軽量適応遅延予測器を提案する。
数値計算の結果,提案手法により,エッジパイプラインの並列学習を最大3倍高速化できることがわかった。
論文 参考訳(メタデータ) (2023-11-10T02:18:33Z) - Slimmable Encoders for Flexible Split DNNs in Bandwidth and Resource
Constrained IoT Systems [12.427821850039448]
本稿では,スリム化可能なアンサンブルエンコーダに基づく分割計算手法を提案する。
私たちの設計の主な利点は、計算負荷と送信データサイズを最小限のオーバーヘッドと時間でリアルタイムで適応できることです。
本モデルでは,圧縮効率や実行時間,特にモバイルデバイスの弱い状況において,既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2023-06-22T06:33:12Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Computational Intelligence and Deep Learning for Next-Generation
Edge-Enabled Industrial IoT [51.68933585002123]
エッジ対応産業用IoTネットワークにおける計算知能とディープラーニング(DL)の展開方法について検討する。
本稿では,新しいマルチエグジットベースフェデレーションエッジ学習(ME-FEEL)フレームワークを提案する。
特に、提案されたME-FEELは、非常に限られたリソースを持つ産業用IoTネットワークにおいて、最大32.7%の精度を達成することができる。
論文 参考訳(メタデータ) (2021-10-28T08:14:57Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - HAPI: Hardware-Aware Progressive Inference [18.214367595727037]
畳み込みニューラルネットワーク(CNN)は最近、AIタスクの多様性における最先端技術となっている。
その人気にもかかわらず、CNN推論は依然として高い計算コストがかかる。
本研究は,ハイパフォーマンス・アーリーエグジット・ネットワークを創出するための新しい手法であるHAPIを提案する。
論文 参考訳(メタデータ) (2020-08-10T09:55:18Z) - Adaptive Anomaly Detection for IoT Data in Hierarchical Edge Computing [71.86955275376604]
本稿では,階層型エッジコンピューティング(HEC)システムに対する適応型異常検出手法を提案する。
本研究では,入力データから抽出した文脈情報に基づいてモデルを選択する適応的手法を設計し,異常検出を行う。
提案手法を実際のIoTデータセットを用いて評価し,検出タスクをクラウドにオフロードするのとほぼ同じ精度を維持しながら,検出遅延を84%削減できることを実証した。
論文 参考訳(メタデータ) (2020-01-10T05:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。