論文の概要: An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic
- arxiv url: http://arxiv.org/abs/2201.02968v1
- Date: Sun, 9 Jan 2022 09:31:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 15:41:03.112070
- Title: An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic
- Title(参考訳): ソフトアクタークリティカルに基づく適応型デバイスエッジ共推論フレームワーク
- Authors: Tao Niu, Yinglei Teng, Zhu Han, Panpan Zou
- Abstract要約: 高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
- 参考スコア(独自算出の注目度): 72.35307086274912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the applications of deep neural network (DNN) have been very
prominent in many fields such as computer vision (CV) and natural language
processing (NLP) due to its superior feature extraction performance. However,
the high-dimension parameter model and large-scale mathematical calculation
restrict the execution efficiency, especially for Internet of Things (IoT)
devices. Different from the previous cloud/edge-only pattern that brings huge
pressure for uplink communication and device-only fashion that undertakes
unaffordable calculation strength, we highlight the collaborative computation
between the device and edge for DNN models, which can achieve a good balance
between the communication load and execution accuracy. Specifically, a
systematic on-demand co-inference framework is proposed to exploit the
multi-branch structure, in which the pre-trained Alexnet is right-sized through
\emph{early-exit} and partitioned at an intermediate DNN layer. The integer
quantization is enforced to further compress transmission bits. As a result, we
establish a new Deep Reinforcement Learning (DRL) optimizer-Soft Actor Critic
for discrete (SAC-d), which generates the \emph{exit point}, \emph{partition
point}, and \emph{compressing bits} by soft policy iterations. Based on the
latency and accuracy aware reward design, such an optimizer can well adapt to
the complex environment like dynamic wireless channel and arbitrary CPU
processing, and is capable of supporting the 5G URLLC. Real-world experiment on
Raspberry Pi 4 and PC shows the outperformance of the proposed solution.
- Abstract(参考訳): 近年,コンピュータビジョン (CV) や自然言語処理 (NLP) など多くの分野で,DNN(Deep Neural Network) の応用が注目されている。
しかし、特にIoT(Internet of Things)デバイスでは、高次元パラメータモデルと大規模数学的計算により実行効率が制限される。
従来のクラウド/エッジのみのパターンと異なり,通信負荷と実行精度のバランスのよいDNNモデルにおいて,デバイスとエッジ間の協調計算が強調される。
具体的には、トレーニング済みのAlexnetが \emph{early-exit} を通じて右にサイズされ、中間DNN層でパーティショニングされるマルチブランチ構造を利用するために、体系的なオンデマンドコ推論フレームワークを提案する。
整数量子化は送信ビットをさらに圧縮するために実行される。
その結果,離散的(SAC-d)のための新たなDeep Reinforcement Learning (DRL)オプティマイザ-Soft Actor Critic を確立し,ソフトポリシーの繰り返しによって \emph{exit point}, \emph{partition point}, \emph{compressing bits} を生成する。
レイテンシと精度を意識した報酬設計に基づいて、このようなオプティマイザは動的無線チャネルや任意のCPU処理のような複雑な環境によく適応でき、5G URLLCをサポートすることができる。
Raspberry Pi 4とPCの実際の実験では、提案されたソリューションの性能が向上している。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - PIPE : Parallelized Inference Through Post-Training Quantization
Ensembling of Residual Expansions [23.1120983784623]
PIPEは、残差誤差展開とグループ間隔とアンサンブル近似を利用して、より良い並列化を実現する量子化法である。
すべてのベンチマークアプリケーション(ビジョンからNLPタスクまで)、アーキテクチャ(ConvNet、トランスフォーマー、ビット幅)において、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-27T13:29:34Z) - Slimmable Encoders for Flexible Split DNNs in Bandwidth and Resource
Constrained IoT Systems [12.427821850039448]
本稿では,スリム化可能なアンサンブルエンコーダに基づく分割計算手法を提案する。
私たちの設計の主な利点は、計算負荷と送信データサイズを最小限のオーバーヘッドと時間でリアルタイムで適応できることです。
本モデルでは,圧縮効率や実行時間,特にモバイルデバイスの弱い状況において,既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2023-06-22T06:33:12Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - Complexity-Driven CNN Compression for Resource-constrained Edge AI [1.6114012813668934]
本稿では,CNNの層レベルでの複雑さを生かして,新しい,計算効率の高いプルーニングパイプラインを提案する。
パラメータ認識(PA)、FLOP認識(FA)、メモリ認識(MA)の3つのモードを定義し、CNNの汎用圧縮を導入する。
論文 参考訳(メタデータ) (2022-08-26T16:01:23Z) - A Low-Complexity Approach to Rate-Distortion Optimized Variable Bit-Rate
Compression for Split DNN Computing [5.3221129103999125]
分散コンピューティングは、DNNベースのAIワークロードを実装するための最近のパラダイムとして登場した。
本稿では,レート・精度・複雑さのトレードオフを最適化する上での課題に対処するアプローチを提案する。
我々のアプローチは、トレーニングと推論の両方において非常に軽量であり、非常に効果的であり、高い速度歪曲性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T15:02:11Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。