論文の概要: Semantics-Driven Cloud-Edge Collaborative Inference
- arxiv url: http://arxiv.org/abs/2309.15435v1
- Date: Wed, 27 Sep 2023 06:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 16:50:31.199885
- Title: Semantics-Driven Cloud-Edge Collaborative Inference
- Title(参考訳): セマンティックス駆動クラウド-エッジ協調推論
- Authors: Yuche Gao and Beibei Zhang
- Abstract要約: 本稿では,ビデオ推論の高速化を目的としたセマンティクス駆動型クラウドエッジ協調手法を提案する。
この方法はセマンティクスの抽出と認識を分離し、エッジサーバはビデオフレームからのみ視覚的セマンティクスを抽出できる。
実験では、エンドツーエンドの推論速度(最大5倍高速)、スループット(最大9FPS)、トラフィックボリュームの大幅な改善が示されている。
- 参考スコア(独自算出の注目度): 1.441340412842035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the proliferation of video data in smart city applications like
intelligent transportation, efficient video analytics has become crucial but
also challenging. This paper proposes a semantics-driven cloud-edge
collaborative approach for accelerating video inference, using license plate
recognition as a case study. The method separates semantics extraction and
recognition, allowing edge servers to only extract visual semantics (license
plate patches) from video frames and offload computation-intensive recognition
to the cloud or neighboring edges based on load. This segmented processing
coupled with a load-aware work distribution strategy aims to reduce end-to-end
latency and improve throughput. Experiments demonstrate significant
improvements in end-to-end inference speed (up to 5x faster), throughput (up to
9 FPS), and reduced traffic volumes (50% less) compared to cloud-only or
edge-only processing, validating the efficiency of the proposed approach. The
cloud-edge collaborative framework with semantics-driven work partitioning
provides a promising solution for scaling video analytics in smart cities.
- Abstract(参考訳): インテリジェント・トランスポーテーションのようなスマートシティ・アプリケーションでビデオデータが急増する中、効率的なビデオ分析は重要だが困難である。
本稿では,ライセンスプレート認識をケーススタディとして用い,セマンティクス駆動のクラウド-エッジ協調によるビデオ推論の高速化手法を提案する。
この方法はセマンティクスの抽出と認識を分離し、エッジサーバはビデオフレームから視覚的セマンティクス(ライセンスプレートパッチ)のみを抽出し、負荷に基づいて計算集約的な認識をクラウドまたは隣接エッジにオフロードする。
このセグメント処理とロードアウェアな作業分散戦略は、エンドツーエンドのレイテンシ低減とスループット向上を目的としている。
実験では、クラウドオンリーやエッジオンリーの処理と比較して、エンドツーエンドの推論速度(最大5倍高速)、スループット(最大9 FPS)、トラフィックボリューム(50%低減)が大幅に改善され、提案手法の有効性が検証された。
セマンティクス駆動のワークパーティショニングを備えたcloud-edgeコラボレーティブフレームワークは、スマートシティにおけるビデオ分析をスケールするための有望なソリューションを提供する。
関連論文リスト
- Learn to Compress (LtC): Efficient Learning-based Streaming Video
Analytics [3.2872586139884623]
LtCは、ビデオソースと分析サーバの協調フレームワークで、分析パイプライン内のビデオストリームの削減を効率的に学習する。
LtCは28~35%の帯域幅を使用でき、最近公開されたアートストリーミングフレームワークと比較して最大45%のレスポンス遅延がある。
論文 参考訳(メタデータ) (2023-07-22T21:36:03Z) - ReBotNet: Fast Real-time Video Enhancement [59.08038313427057]
ほとんどの復元ネットワークは遅く、高い計算ボトルネックがあり、リアルタイムビデオ拡張には使用できない。
本研究では,ライブビデオ通話やビデオストリームなどの実用的なユースケースをリアルタイムに拡張するための,効率的かつ高速なフレームワークを設計する。
提案手法を評価するために,実世界のビデオ通話とストリーミングのシナリオを示す2つの新しいデータセットをエミュレートし,ReBotNetがより少ない計算,メモリ要求の低減,より高速な推論時間で既存手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-23T17:58:05Z) - Task-Oriented Communication for Edge Video Analytics [11.03999024164301]
本稿では,エッジビデオ分析のためのタスク指向通信フレームワークを提案する。
複数のデバイスが視覚センサデータを収集し、その情報機能をエッジサーバに送信して処理する。
提案手法は,映像データのタスク関連情報を効果的に符号化し,既存の手法よりも高いレート性能のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-11-25T12:09:12Z) - Deep Unsupervised Key Frame Extraction for Efficient Video
Classification [63.25852915237032]
本研究は、畳み込みニューラルネットワーク(CNN)と時間セグメント密度ピーククラスタリング(TSDPC)を組み合わせたキーフレームの検索方法を提案する。
提案した TSDPC は汎用的で強力なフレームワークであり,従来の研究に比べて2つの利点がある。
さらに、CNNの上部にLong Short-Term Memory Network (LSTM)を追加し、分類性能をさらに高める。
論文 参考訳(メタデータ) (2022-11-12T20:45:35Z) - NSNet: Non-saliency Suppression Sampler for Efficient Video Recognition [89.84188594758588]
非定常フレームの応答を抑制するために, NSNet(Non-Sliency Suppression Network)を提案する。
NSNetは最先端の精度効率トレードオフを実現し、最先端の手法よりもはるかに高速な2.44.3xの実用的な推論速度を示す。
論文 参考訳(メタデータ) (2022-07-21T09:41:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Adaptive Focus for Efficient Video Recognition [29.615394426035074]
効率的な空間適応映像認識(AdaFocus)のための強化学習手法を提案する。
タスク関連領域をローカライズするために、リカレントポリシーネットワークによって使用されるフルビデオシーケンスを迅速に処理するために、軽量のConvNetが最初に採用された。
オフライン推論の間、情報パッチシーケンスが生成されると、計算の大部分を並列に行うことができ、現代のGPUデバイスで効率的である。
論文 参考訳(メタデータ) (2021-05-07T13:24:47Z) - VID-WIN: Fast Video Event Matching with Query-Aware Windowing at the
Edge for the Internet of Multimedia Things [3.222802562733787]
VID-WINは、エッジクラウドパラダイムでビデオイベント分析を加速するための適応型2段階アライメントウィンドウリングアプローチです。
VID-WINは、ビデオコンテンツと入力ノブを利用して、ノード間のビデオ推論プロセスを加速する。
論文 参考訳(メタデータ) (2021-04-27T10:08:40Z) - Multi-Task Network Pruning and Embedded Optimization for Real-time
Deployment in ADAS [0.0]
カメラベースのディープラーニングアルゴリズムは、自動運転システムにおける認識にますます必要である。
自動車業界からの制約は、限られた計算リソースで組み込みシステムを課すことでCNNの展開に挑戦します。
商用プロトタイププラットフォーム上で,このような条件下でマルチタスクCNNネットワークを埋め込む手法を提案する。
論文 参考訳(メタデータ) (2021-01-19T19:29:38Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Dynamic Inference: A New Approach Toward Efficient Video Action
Recognition [69.9658249941149]
ビデオにおけるアクション認識は近年大きな成功を収めているが、膨大な計算コストのために依然として難しい課題である。
本稿では,異なるビデオの識別可能性の変動を利用して,推論効率を向上させるための一般的な動的推論手法を提案する。
論文 参考訳(メタデータ) (2020-02-09T11:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。