論文の概要: Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing
- arxiv url: http://arxiv.org/abs/2211.13745v1
- Date: Thu, 24 Nov 2022 18:10:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:44:54.578238
- Title: Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing
- Title(参考訳): エッジコンピューティングにおけるCNN推論オフロードの注意に基づく特徴圧縮
- Authors: Nan Li, Alexandros Iosifidis, Qi Zhang
- Abstract要約: 本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
- 参考スコア(独自算出の注目度): 93.67044879636093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the computational offloading of CNN inference in
device-edge co-inference systems. Inspired by the emerging paradigm semantic
communication, we propose a novel autoencoder-based CNN architecture (AECNN),
for effective feature extraction at end-device. We design a feature compression
module based on the channel attention method in CNN, to compress the
intermediate data by selecting the most important features. To further reduce
communication overhead, we can use entropy encoding to remove the statistical
redundancy in the compressed data. At the receiver, we design a lightweight
decoder to reconstruct the intermediate data through learning from the received
compressed data to improve accuracy. To fasten the convergence, we use a
step-by-step approach to train the neural networks obtained based on ResNet-50
architecture. Experimental results show that AECNN can compress the
intermediate data by more than 256x with only about 4% accuracy loss, which
outperforms the state-of-the-art work, BottleNet++. Compared to offloading
inference task directly to edge server, AECNN can complete inference task
earlier, in particular, under poor wireless channel condition, which highlights
the effectiveness of AECNN in guaranteeing higher accuracy within time
constraint.
- Abstract(参考訳): 本稿では,デバイスエッジ協調システムにおけるcnn推論の計算オフロードについて検討する。
新たなパラダイム・セマンティック・コミュニケーションに触発されて,エンドデバイスにおける効果的な特徴抽出のためのオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
我々は,CNNにおけるチャネルアテンション法に基づく特徴圧縮モジュールを設計し,重要な特徴を選択して中間データを圧縮する。
さらに通信オーバーヘッドを低減するため,エントロピー符号化を用いて圧縮データの統計的冗長性を除去できる。
受信機では、受信した圧縮データから学習して中間データを再構築し、精度を向上させる軽量デコーダを設計する。
収束を高速化するため、ResNet-50アーキテクチャに基づいて得られたニューラルネットワークをステップバイステップでトレーニングする。
実験結果から、AECNNは、約4%の精度損失で256倍以上の中間データを圧縮でき、最先端の作業であるBottleNet++よりも優れていることがわかった。
エッジサーバに直接推論タスクをオフロードするのと比較して、AECNNはより早く、特に無線チャネル条件の悪い環境で推論タスクを完了させることができる。
関連論文リスト
- Dynamic Semantic Compression for CNN Inference in Multi-access Edge
Computing: A Graph Reinforcement Learning-based Autoencoder [82.8833476520429]
部分オフロードにおける効果的な意味抽出と圧縮のための新しい意味圧縮手法であるオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
セマンティックエンコーダでは、CNNのチャネルアテンション機構に基づく特徴圧縮モジュールを導入し、最も情報性の高い特徴を選択して中間データを圧縮する。
セマンティックデコーダでは、受信した圧縮データから学習して中間データを再構築し、精度を向上させる軽量デコーダを設計する。
論文 参考訳(メタデータ) (2024-01-19T15:19:47Z) - Spatiotemporal Attention-based Semantic Compression for Real-time Video
Recognition [117.98023585449808]
本稿では,各フレームにおけるフレームと画素の重要性を評価するために,時間的注意に基づくオートエンコーダ(STAE)アーキテクチャを提案する。
我々は3D-2D CNNを組み合わせた軽量デコーダを開発し、欠落した情報を再構成する。
実験の結果,VT_STAEはビデオデータセットH51を,5%の精度で104倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-22T07:47:27Z) - Semantic Communication Enabling Robust Edge Intelligence for
Time-Critical IoT Applications [87.05763097471487]
本稿では、時間クリティカルなIoTアプリケーションのためのセマンティック通信を用いて、堅牢なエッジインテリジェンスを設計することを目的とする。
本稿では,画像DCT係数が推定精度に与える影響を解析し,オフロードのためのチャネル非依存の有効性符号化を提案する。
論文 参考訳(メタデータ) (2022-11-24T20:13:17Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - Toward Compact Parameter Representations for Architecture-Agnostic
Neural Network Compression [26.501979992447605]
本稿では,訓練されたパラメータをコンパクトに表現・保存する観点から,圧縮について検討する。
我々は、画像記述子のために発明された極端損失圧縮法である加法量子化を利用して、パラメータをコンパクトに表現する。
我々は,MobileNet-v2,VGG-11,ResNet-50,Feature Pyramid Networks,および分類,検出,セグメンテーションタスクを訓練したPruned DNNの実験を行った。
論文 参考訳(メタデータ) (2021-11-19T17:03:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。