論文の概要: AQuA: Analytical Quality Assessment for Optimizing Video Analytics
Systems
- arxiv url: http://arxiv.org/abs/2101.09752v1
- Date: Sun, 24 Jan 2021 16:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:16:28.442975
- Title: AQuA: Analytical Quality Assessment for Optimizing Video Analytics
Systems
- Title(参考訳): AQuA:ビデオ分析システムの最適化のための分析品質評価
- Authors: Sibendu Paul, Utsav Drolia, Y. Charlie Hu, Srimat T. Chakradhar
- Abstract要約: AQuAを導入し、フレームの歪みレベルを評価することにより、歪みフレームに対するアプリケーション精度を保護する。
これは、新しいメトリック、意見スコアを学習することで、視覚的品質ではなく、フレームの分析的品質を考慮に入れ、軽量でcnnベースの、オブジェクトに依存しない特徴抽出器を使用する。
AQuAはフレームの歪みレベルを正確にスコアし、複数の異なるディープラーニングアプリケーションに一般化する。
- 参考スコア(独自算出の注目度): 3.2751604113705532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Millions of cameras at edge are being deployed to power a variety of
different deep learning applications. However, the frames captured by these
cameras are not always pristine - they can be distorted due to lighting issues,
sensor noise, compression etc. Such distortions not only deteriorate visual
quality, they impact the accuracy of deep learning applications that process
such video streams. In this work, we introduce AQuA, to protect application
accuracy against such distorted frames by scoring the level of distortion in
the frames. It takes into account the analytical quality of frames, not the
visual quality, by learning a novel metric, classifier opinion score, and uses
a lightweight, CNN-based, object-independent feature extractor. AQuA accurately
scores distortion levels of frames and generalizes to multiple different deep
learning applications. When used for filtering poor quality frames at edge, it
reduces high-confidence errors for analytics applications by 17%. Through
filtering, and due to its low overhead (14ms), AQuA can also reduce computation
time and average bandwidth usage by 25%.
- Abstract(参考訳): edgeの数百万台のカメラが、さまざまなディープラーニングアプリケーションを動かすためにデプロイされている。
しかし、これらのカメラが捉えたフレームは必ずしも原始的ではなく、照明の問題、センサーノイズ、圧縮などによって歪められる。
このような歪みは視覚的品質を劣化させるだけでなく、このようなビデオストリームを処理するディープラーニングアプリケーションの精度にも影響を及ぼす。
本研究では,フレームの歪みレベルを評価することで,そのような歪んだフレームに対してアプリケーション精度を保護するために,AQuAを導入する。
これは、新しいメトリック、分類子意見スコアを学習することで、視覚的品質ではなく、フレームの分析的品質を考慮に入れ、軽量でcnnベースの、オブジェクトに依存しない特徴抽出器を使用する。
AQuAはフレームの歪みレベルを正確にスコアし、複数の異なるディープラーニングアプリケーションに一般化する。
エッジで品質の低いフレームをフィルタリングする場合、分析アプリケーションの信頼性の高いエラーを17%削減する。
フィルタリングにより、そのオーバーヘッド(14ms)が低いため、AQuAは計算時間と平均帯域幅使用量を25%削減することもできます。
関連論文リスト
- Perceptual-Distortion Balanced Image Super-Resolution is a Multi-Objective Optimization Problem [23.833099288826045]
画素ベースの回帰損失を用いた単一画像超解法(SISR)モデルのトレーニングは、高い歪みメトリクススコアを得ることができる。
しかし、高周波の詳細の回復が不十分なため、しばしばぼやけた画像が生じる。
本稿では,Multi-Objective Optimization(MOO)をSISRモデルのトレーニングプロセスに組み込んで,知覚品質と歪みのバランスをとる手法を提案する。
論文 参考訳(メタデータ) (2024-09-05T02:14:04Z) - IQNet: Image Quality Assessment Guided Just Noticeable Difference
Prefiltering For Versatile Video Coding [0.9403328689534943]
ジャストインタブル歪み(JND)による画像プリフィルタは、圧縮前に知覚的に冗長な情報をフィルタリングすることにより、視覚的に符号化効率を向上させる。
本稿では, 高精度なブロックレベルのJNDモデリングのための画像品質評価によって導かれる, きめ細かいJND事前フィルタリングデータセットを提案する。
論文 参考訳(メタデータ) (2023-12-15T13:58:10Z) - Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - Blurry Video Compression: A Trade-off between Visual Enhancement and
Data Compression [65.8148169700705]
既存のビデオ圧縮(VC)手法は主に、ビデオ内の連続フレーム間の空間的および時間的冗長性を減らすことを目的としている。
これまでの研究は、インスタント(既知の)露光時間やシャッタースピードなどの特定の設定で取得されたビデオに対して、顕著な成果を上げてきた。
本研究では,シーン内のカメラ設定やダイナミックスによって,所定の映像がぼやけてしまうという一般的なシナリオにおいて,VCの問題に取り組む。
論文 参考訳(メタデータ) (2023-11-08T02:17:54Z) - Frequency-domain Blind Quality Assessment of Blurred and
Blocking-artefact Images using Gaussian Process Regression model [0.5735035463793008]
標準的な画像コーデックやビデオコーデックのほとんどはブロックベースであり、圧縮率によって圧縮された画像やビデオの歪みが異なる。
本稿では,これらの歪みに苦しむ画像の全体的品質を個々に,かつ共同で測定する手法を提案する。
多くの最先端の手法と比較して比較的高速であり、したがってリアルタイムな品質監視アプリケーションに適している。
論文 参考訳(メタデータ) (2023-03-05T19:20:55Z) - AccDecoder: Accelerated Decoding for Neural-enhanced Video Analytics [26.012783785622073]
低画質のビデオは、品質の悪いカメラや、過度に圧縮/切断されたビデオストリーミングプロトコルのために、既存の監視システムによって収集される。
AccDecoderは、リアルタイムおよびニューラルネットワークベースのビデオ分析のための新しいアクセラレーションデコーダである。
論文 参考訳(メタデータ) (2023-01-20T16:30:44Z) - NSNet: Non-saliency Suppression Sampler for Efficient Video Recognition [89.84188594758588]
非定常フレームの応答を抑制するために, NSNet(Non-Sliency Suppression Network)を提案する。
NSNetは最先端の精度効率トレードオフを実現し、最先端の手法よりもはるかに高速な2.44.3xの実用的な推論速度を示す。
論文 参考訳(メタデータ) (2022-07-21T09:41:22Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Video Quality Enhancement Using Deep Learning-Based Prediction Models
for Quantized DCT Coefficients in MPEG I-frames [0.0]
本稿では,周波数/周波数領域に基づくMPEGビデオデコーダを提案する。
低品質Iフレームから受信した量子化されたDCT係数を読み出し、深層学習モデルを用いて、欠落した係数を予測し、同じフレームを高画質で再構成する。
論文 参考訳(メタデータ) (2020-10-09T16:41:18Z) - Is There Tradeoff between Spatial and Temporal in Video
Super-Resolution? [50.70768797616581]
低解像度(LR)ビデオフレーム間の時間的相関を利用するアルゴリズムや,複数のLRフレームを持つフレームを超解法するアルゴリズムが提案されている。
これらの手法は、PSNRなどのフレーム単位での画質を計測する超解像フレームのより高い品質を追求する。
フレームワイドの忠実度とフレーム間の一貫性を両立させることは自然な要件であり、それぞれが空間的品質と時間的品質と呼ばれる。
論文 参考訳(メタデータ) (2020-03-13T07:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。