論文の概要: AccDecoder: Accelerated Decoding for Neural-enhanced Video Analytics
- arxiv url: http://arxiv.org/abs/2301.08664v1
- Date: Fri, 20 Jan 2023 16:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 12:52:28.168667
- Title: AccDecoder: Accelerated Decoding for Neural-enhanced Video Analytics
- Title(参考訳): AccDecoder: ニューラル強化ビデオ分析のための高速化デコーディング
- Authors: Tingting Yuan, Liang Mi, Weijun Wang, Haipeng Dai, Xiaoming Fu
- Abstract要約: 低画質のビデオは、品質の悪いカメラや、過度に圧縮/切断されたビデオストリーミングプロトコルのために、既存の監視システムによって収集される。
AccDecoderは、リアルタイムおよびニューラルネットワークベースのビデオ分析のための新しいアクセラレーションデコーダである。
- 参考スコア(独自算出の注目度): 26.012783785622073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of the video stream is key to neural network-based video
analytics. However, low-quality video is inevitably collected by existing
surveillance systems because of poor quality cameras or over-compressed/pruned
video streaming protocols, e.g., as a result of upstream bandwidth limit. To
address this issue, existing studies use quality enhancers (e.g., neural
super-resolution) to improve the quality of videos (e.g., resolution) and
eventually ensure inference accuracy. Nevertheless, directly applying quality
enhancers does not work in practice because it will introduce unacceptable
latency. In this paper, we present AccDecoder, a novel accelerated decoder for
real-time and neural-enhanced video analytics. AccDecoder can select a few
frames adaptively via Deep Reinforcement Learning (DRL) to enhance the quality
by neural super-resolution and then up-scale the unselected frames that
reference them, which leads to 6-21% accuracy improvement. AccDecoder provides
efficient inference capability via filtering important frames using DRL for
DNN-based inference and reusing the results for the other frames via extracting
the reference relationship among frames and blocks, which results in a latency
reduction of 20-80% than baselines.
- Abstract(参考訳): ビデオストリームの品質は、ニューラルネットワークベースのビデオ分析の鍵となる。
しかし、低品質ビデオは、例えばアップストリーム帯域幅の制限などにより、低品質カメラや過剰圧縮/縮小ビデオストリーミングプロトコルによって、既存の監視システムによって必然的に収集される。
この問題に対処するために、既存の研究では、画質向上器(例えば、ニューラル超解像)を使用してビデオの品質を改善する(例えば、解像度)。
それでも、品質向上剤の直接適用は、受け入れられないレイテンシをもたらすため、実際には機能しない。
本稿では,リアルタイム・ニューラルエンハンスドビデオ解析のための新しい高速化デコーダ accdecoder を提案する。
AccDecoderは、Deep Reinforcement Learning (DRL)を介して適応的にいくつかのフレームを選択して、ニューラル超解像により品質を高め、参照する未選択フレームをスケールアップすることで、精度が6-21%向上する。
AccDecoderは、DNNベースの推論のためにDRLを使用して重要なフレームをフィルタリングし、フレームとブロック間の参照関係を抽出することで、他のフレームに対して結果を再利用することで効率的な推論機能を提供する。
関連論文リスト
- Standard compliant video coding using low complexity, switchable neural wrappers [8.149130379436759]
標準互換性、高性能、低復号化の複雑さを特徴とする新しいフレームワークを提案する。
私たちは、標準的なビデオをラップして、異なる解像度でビデオをエンコードする、共同最適化されたニューラルプリプロセッサとポストプロセッサのセットを使用します。
我々は、異なるアップサンプリング比を処理できる低複雑性のニューラルポストプロセッサアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-07-10T06:36:45Z) - Prediction and Reference Quality Adaptation for Learned Video Compression [54.58691829087094]
本研究では,空間的およびチャネル的予測品質差の明確な識別を行うために,信頼度に基づく予測品質適応(PQA)モジュールを提案する。
また、参照品質適応(RQA)モジュールと関連する繰り返し学習戦略を提案し、様々な参照品質のための動的空間変化フィルタを提供する。
論文 参考訳(メタデータ) (2024-06-20T09:03:26Z) - Boosting Neural Representations for Videos with a Conditional Decoder [28.073607937396552]
Inlicit Neural representations (INRs) は、ビデオストレージと処理において有望なアプローチとして登場した。
本稿では,現在の暗黙的ビデオ表現手法のための普遍的なブースティングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T08:32:19Z) - ILCAS: Imitation Learning-Based Configuration-Adaptive Streaming for
Live Video Analytics with Cross-Camera Collaboration [53.29046841099947]
本稿では,最初の模倣学習 (IL) に基づく構成適応型ライブビデオ分析 (VA) ストリーミングシステムを提案する。
ILCASは、オフラインの最適ポリシーとして設計された専門家から収集されたデモでエージェントを訓練する。
ILCASは最先端のソリューションに比べて優れており、平均精度は2-20.9%改善し、チャンクアップロードラグは19.9-85.3%削減された。
論文 参考訳(メタデータ) (2023-08-19T16:20:59Z) - CaDM: Codec-aware Diffusion Modeling for Neural-enhanced Video Streaming [15.115975994657514]
Codec-Aware Diffusion Modeling (CaDM) はニューラル・エンハンスド・ビデオ・ストリーミング(NVS)のパラダイムである。
第一に、CaDMは解像度とカラービット深度ビデオフレームを同時に低減することによりエンコーダの圧縮効率を向上する。
論文 参考訳(メタデータ) (2022-11-15T05:14:48Z) - Rethinking Resolution in the Context of Efficient Video Recognition [49.957690643214576]
クロスレゾリューションKD(ResKD)は、低解像度フレームでの認識精度を高めるための単純だが効果的な方法である。
我々は,最先端アーキテクチャ,すなわち3D-CNNとビデオトランスフォーマーに対して,その効果を広く示す。
論文 参考訳(メタデータ) (2022-09-26T15:50:44Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - NSNet: Non-saliency Suppression Sampler for Efficient Video Recognition [89.84188594758588]
非定常フレームの応答を抑制するために, NSNet(Non-Sliency Suppression Network)を提案する。
NSNetは最先端の精度効率トレードオフを実現し、最先端の手法よりもはるかに高速な2.44.3xの実用的な推論速度を示す。
論文 参考訳(メタデータ) (2022-07-21T09:41:22Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - Perceptually-inspired super-resolution of compressed videos [18.72040343193715]
空間分解能適応は、符号化効率を高めるためにしばしばビデオ圧縮に使用される技法である。
近年の研究では、畳み込みニューラルネットワーク(CNN)に基づく高度な超解像法を用いて、再構築品質をさらに向上させている。
本稿では,CNNモデルを用いた圧縮映像の空間的アップサンプリングのために,知覚にインスパイアされた超解像法(M-SRGAN)を提案する。
論文 参考訳(メタデータ) (2021-06-15T13:50:24Z) - Video compression with low complexity CNN-based spatial resolution
adaptation [15.431248645312309]
空間分解能適応は、全体的な符号化性能を改善するために、ビデオ圧縮に組み込むことができる。
エンコーダとデコーダ間の複雑性の柔軟な割り当てをサポートする新しいフレームワークが提案されている。
論文 参考訳(メタデータ) (2020-07-29T10:20:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。