論文の概要: Neural Compression and Filtering for Edge-assisted Real-time Object
Detection in Challenged Networks
- arxiv url: http://arxiv.org/abs/2007.15818v2
- Date: Sun, 18 Oct 2020 18:03:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:19:38.819936
- Title: Neural Compression and Filtering for Edge-assisted Real-time Object
Detection in Challenged Networks
- Title(参考訳): エッジ支援リアルタイム物体検出のためのニューラルネットワーク圧縮とフィルタリング
- Authors: Yoshitomo Matsubara, Marco Levorato
- Abstract要約: 我々はディープニューラルネットワーク(DNN)を用いた遠隔物体検出支援エッジコンピューティングに焦点をあてる。
無線リンクを介して送信されるデータの量を削減するためのフレームワークを開発する。
提案手法は,パラメータ領域における局所演算とエッジ演算の効果的な中間オプションを示す。
- 参考スコア(独自算出の注目度): 8.291242737118482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The edge computing paradigm places compute-capable devices - edge servers -
at the network edge to assist mobile devices in executing data analysis tasks.
Intuitively, offloading compute-intense tasks to edge servers can reduce their
execution time. However, poor conditions of the wireless channel connecting the
mobile devices to the edge servers may degrade the overall capture-to-output
delay achieved by edge offloading. Herein, we focus on edge computing
supporting remote object detection by means of Deep Neural Networks (DNNs), and
develop a framework to reduce the amount of data transmitted over the wireless
link. The core idea we propose builds on recent approaches splitting DNNs into
sections - namely head and tail models - executed by the mobile device and edge
server, respectively. The wireless link, then, is used to transport the output
of the last layer of the head model to the edge server, instead of the DNN
input. Most prior work focuses on classification tasks and leaves the DNN
structure unaltered. Herein, our focus is on DNNs for three different object
detection tasks, which present a much more convoluted structure, and modify the
architecture of the network to: (i) achieve in-network compression by
introducing a bottleneck layer in the early layers on the head model, and (ii)
prefilter pictures that do not contain objects of interest using a
convolutional neural network. Results show that the proposed technique
represents an effective intermediate option between local and edge computing in
a parameter region where these extreme point solutions fail to provide
satisfactory performance. The code and trained models are available at
https://github.com/yoshitomo-matsubara/hnd-ghnd-object-detectors .
- Abstract(参考訳): エッジコンピューティングパラダイムでは、エッジサーバをネットワークエッジに配置して、データ解析タスクを実行するモバイルデバイスを支援する。
直感的には、エッジサーバに計算センスタスクをオフロードすることで、実行時間を短縮できる。
しかし、モバイルデバイスとエッジサーバを接続する無線チャネルの条件が低ければ、エッジオフロードによって達成される全体的なキャプチャ-アウトプット遅延が低下する可能性がある。
本稿では、ディープニューラルネットワーク(DNN)による遠隔物体検出を支援するエッジコンピューティングに着目し、無線リンクを介して送信されるデータ量を削減するためのフレームワークを開発する。
私たちが提案する中核的なアイデアは、モバイルデバイスとエッジサーバによって実行される、DNNをセクション(ヘッドモデルとテールモデル)に分割する最近のアプローチに基づくものです。
無線リンクは、DNN入力の代わりにヘッドモデルの最後の層の出力をエッジサーバに転送するために使用される。
ほとんどの先行研究は分類タスクに焦点を当てており、dnn構造は変更されない。
ここでは、より複雑な構造を示す3つの異なるオブジェクト検出タスクに対するDNNに注目し、ネットワークのアーキテクチャを次のように変更する。
(i)ヘッドモデルの初期層にボトルネック層を導入することでネットワーク内圧縮を実現する。
(ii)畳み込みニューラルネットワークを用いて興味のある対象を含まないプリフィルタ画像。
提案手法は,これらの極端点解が満足な性能を得られないパラメータ領域において,局所演算とエッジ演算の効果的な中間オプションであることを示す。
コードとトレーニングされたモデルはhttps://github.com/yoshitomo-matsubara/hnd-ghnd-object-detectorsで入手できる。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - SpikeBottleNet: Spike-Driven Feature Compression Architecture for Edge-Cloud Co-Inference [0.86325068644655]
エッジクラウドコ推論システムのための新しいアーキテクチャであるSpikeBottleNetを提案する。
SpikeBottleNetはスパイクニューロンモデルを統合し、エッジデバイスのエネルギー消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-10-11T09:59:21Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - Latency-Memory Optimized Splitting of Convolution Neural Networks for
Resource Constrained Edge Devices [1.6873748786804317]
我々は、エッジデバイスとクラウド間でCNNを実行することは、リソース制約のある最適化問題を解決することと同義であると主張している。
実世界のエッジデバイスでの実験では、LMOSはエッジで異なるCNNモデルの実行可能な実行を保証する。
論文 参考訳(メタデータ) (2021-07-19T19:39:56Z) - A Joint Energy and Latency Framework for Transfer Learning over 5G
Industrial Edge Networks [53.26338041079138]
5G産業エッジネットワークのための転送学習対応エッジCNNフレームワークを提案する。
特に、エッジサーバは、既存の画像データセットを使用してcnnを事前トレーニングすることができる。
TLの助けを借りて、トレーニングに参加していないデバイスは、訓練されたエッジCNNモデルをスクラッチからトレーニングせずに微調整するだけです。
論文 参考訳(メタデータ) (2021-04-19T15:13:16Z) - Edge-Detect: Edge-centric Network Intrusion Detection using Deep Neural
Network [0.0]
エッジノードは、Internet-of-Thingsエンドポイント上の複数のサイバー攻撃を検出するために不可欠である。
DLM技術を用いてエッジノードに対するDoS攻撃を検知する,軽量で高速かつ高精度なEdge-Detectモデルを開発した。
論文 参考訳(メタデータ) (2021-02-03T04:24:34Z) - Adaptive Anomaly Detection for IoT Data in Hierarchical Edge Computing [71.86955275376604]
本稿では,階層型エッジコンピューティング(HEC)システムに対する適応型異常検出手法を提案する。
本研究では,入力データから抽出した文脈情報に基づいてモデルを選択する適応的手法を設計し,異常検出を行う。
提案手法を実際のIoTデータセットを用いて評価し,検出タスクをクラウドにオフロードするのとほぼ同じ精度を維持しながら,検出遅延を84%削減できることを実証した。
論文 参考訳(メタデータ) (2020-01-10T05:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。