論文の概要: Turbo: Opportunistic Enhancement for Edge Video Analytics
- arxiv url: http://arxiv.org/abs/2207.00172v1
- Date: Wed, 29 Jun 2022 12:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 14:52:58.850347
- Title: Turbo: Opportunistic Enhancement for Edge Video Analytics
- Title(参考訳): Turbo: エッジビデオ分析の機会的拡張
- Authors: Yan Lu, Shiqi Jiang, Ting Cao, Yuanchao Shu
- Abstract要約: 本稿では,非決定論的および断片的アイドルGPU資源を用いたオポチュニティデータ拡張問題について検討する。
本稿では,タスク固有の識別・拡張モジュールと,モデル対応の対人訓練機構を提案する。
我々のシステムは、遅延コストを発生させることなく、オブジェクト検出の精度を7.3~11.3%向上させる。
- 参考スコア(独自算出の注目度): 15.528497833853146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge computing is being widely used for video analytics. To alleviate the
inherent tension between accuracy and cost, various video analytics pipelines
have been proposed to optimize the usage of GPU on edge nodes. Nonetheless, we
find that GPU compute resources provisioned for edge nodes are commonly
under-utilized due to video content variations, subsampling and filtering at
different places of a pipeline. As opposed to model and pipeline optimization,
in this work, we study the problem of opportunistic data enhancement using the
non-deterministic and fragmented idle GPU resources. In specific, we propose a
task-specific discrimination and enhancement module and a model-aware
adversarial training mechanism, providing a way to identify and transform
low-quality images that are specific to a video pipeline in an accurate and
efficient manner. A multi-exit model structure and a resource-aware scheduler
is further developed to make online enhancement decisions and fine-grained
inference execution under latency and GPU resource constraints. Experiments
across multiple video analytics pipelines and datasets reveal that by
judiciously allocating a small amount of idle resources on frames that tend to
yield greater marginal benefits from enhancement, our system boosts DNN object
detection accuracy by $7.3-11.3\%$ without incurring any latency costs.
- Abstract(参考訳): エッジコンピューティングはビデオ分析に広く使われている。
精度とコストの本質的にの緊張を軽減するため、エッジノードでのGPUの使用を最適化するために、さまざまなビデオ分析パイプラインが提案されている。
それでも、エッジノードにプロビジョニングされたGPU計算リソースは、ビデオコンテンツの変化、サブサンプリング、パイプラインの異なる場所でのフィルタリングなどにより、一般的には利用されていない。
モデルとパイプラインの最適化とは対照的に,非決定論的および断片的アイドルGPU資源を用いた機会論的データ拡張の問題について検討する。
具体的には,映像パイプラインに特有な低品質画像を高精度かつ効率的な方法で識別・変換する手段を提供する,タスク固有の識別・強調モジュールと,モデル対応の対向学習機構を提案する。
さらにマルチエクイットモデル構造とリソース対応スケジューラが開発され,レイテンシとgpuリソース制約下でのオンライン拡張決定と詳細な推論実行が実現されている。
複数のビデオ分析パイプラインとデータセットをまたいだ実験によると、フレーム上に少量のアイドルリソースを割り当てることで、拡張によってより限界的なメリットをもたらす傾向があるため、我々のシステムは遅延コストを発生させることなく、DNNオブジェクトの検出精度を7.3-11.3\%$に向上させる。
関連論文リスト
- Mondrian: On-Device High-Performance Video Analytics with Compressive
Packed Inference [7.624476059109304]
Mondrianは、高解像度ビデオストリーム上で高性能なオブジェクト検出を可能にするエッジシステムである。
我々は,1ピクセルあたりの処理コストを最小限に抑えるために,新しい圧縮パッケージ推論を考案した。
論文 参考訳(メタデータ) (2024-03-12T12:35:12Z) - Learn to Compress (LtC): Efficient Learning-based Streaming Video
Analytics [3.2872586139884623]
LtCは、ビデオソースと分析サーバの協調フレームワークで、分析パイプライン内のビデオストリームの削減を効率的に学習する。
LtCは28~35%の帯域幅を使用でき、最近公開されたアートストリーミングフレームワークと比較して最大45%のレスポンス遅延がある。
論文 参考訳(メタデータ) (2023-07-22T21:36:03Z) - Communication-Efficient Graph Neural Networks with Probabilistic
Neighborhood Expansion Analysis and Caching [59.8522166385372]
大規模グラフ上でのグラフニューラルネットワーク(GNN)のトレーニングと推論は、GNNの登場以来活発に研究されている。
本稿では,分散環境におけるノードワイドサンプリングを用いたGNNによるミニバッチ学習と推論について述べる。
分割された特徴データを扱うために,従来のSALIENTシステムを拡張したSALIENT++を提案する。
論文 参考訳(メタデータ) (2023-05-04T21:04:01Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Task-Oriented Communication for Edge Video Analytics [11.03999024164301]
本稿では,エッジビデオ分析のためのタスク指向通信フレームワークを提案する。
複数のデバイスが視覚センサデータを収集し、その情報機能をエッジサーバに送信して処理する。
提案手法は,映像データのタスク関連情報を効果的に符号化し,既存の手法よりも高いレート性能のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-11-25T12:09:12Z) - Efficient Heterogeneous Video Segmentation at the Edge [2.4378845585726903]
ヘテロジニアス計算を利用したリソース制限エッジデバイスのための効率的なビデオセグメンテーションシステムを提案する。
具体的には、ニューラルネットワークの仕様を多次元にわたって探索することで、ネットワークモデルを設計する。
我々は、CPU、GPU、NPUにまたがるシステムの異種データフローを分析し、最適化する。
論文 参考訳(メタデータ) (2022-08-24T17:01:09Z) - GPU-accelerated SIFT-aided source identification of stabilized videos [63.084540168532065]
我々は、安定化フレームインバージョンフレームワークにおけるグラフィクス処理ユニット(GPU)の並列化機能を利用する。
我々はSIFT機能を活用することを提案する。
カメラのモーメントを推定し 1%の確率で 時間セグメントを識別します
実験により,提案手法の有効性を確認し,必要な計算時間を短縮し,情報源の同定精度を向上させる。
論文 参考訳(メタデータ) (2022-07-29T07:01:31Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - VID-WIN: Fast Video Event Matching with Query-Aware Windowing at the
Edge for the Internet of Multimedia Things [3.222802562733787]
VID-WINは、エッジクラウドパラダイムでビデオイベント分析を加速するための適応型2段階アライメントウィンドウリングアプローチです。
VID-WINは、ビデオコンテンツと入力ノブを利用して、ノード間のビデオ推論プロセスを加速する。
論文 参考訳(メタデータ) (2021-04-27T10:08:40Z) - Faster than FAST: GPU-Accelerated Frontend for High-Speed VIO [46.20949184826173]
この研究は、既存のコンピュータビジョンアルゴリズムを改善するために、効率的な低レベルGPUハードウェア固有の命令の適用性に焦点を当てている。
特に、非マックス抑圧とその後の特徴選択は、全体的な画像処理遅延への顕著な寄与である。
論文 参考訳(メタデータ) (2020-03-30T14:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。