論文の概要: Deep Learning-Based Real-Time Quality Control of Standard Video
Compression for Live Streaming
- arxiv url: http://arxiv.org/abs/2311.12918v1
- Date: Tue, 21 Nov 2023 18:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 17:23:32.558423
- Title: Deep Learning-Based Real-Time Quality Control of Standard Video
Compression for Live Streaming
- Title(参考訳): ライブストリーミングにおける標準映像圧縮のリアルタイム品質制御
- Authors: Matin Mortaheb, Mohammad A. Amir Khojastepour, Srimat T. Chakradhar,
Sennur Ulukus
- Abstract要約: リアルタイム深層学習に基づくH.264コントローラを提案する。
最小遅延でビデオチャンクの内容に基づいて最適なエンコーダパラメータを推定する。
平均帯域使用量の最大2.5倍の改善を実現している。
- 参考スコア(独自算出の注目度): 31.285983939625098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring high-quality video content for wireless users has become
increasingly vital. Nevertheless, maintaining a consistent level of video
quality faces challenges due to the fluctuating encoded bitrate, primarily
caused by dynamic video content, especially in live streaming scenarios. Video
compression is typically employed to eliminate unnecessary redundancies within
and between video frames, thereby reducing the required bandwidth for video
transmission. The encoded bitrate and the quality of the compressed video
depend on encoder parameters, specifically, the quantization parameter (QP).
Poor choices of encoder parameters can result in reduced bandwidth efficiency
and high likelihood of non-conformance. Non-conformance refers to the violation
of the peak signal-to-noise ratio (PSNR) constraint for an encoded video
segment. To address these issues, a real-time deep learning-based H.264
controller is proposed. This controller dynamically estimates the optimal
encoder parameters based on the content of a video chunk with minimal delay.
The objective is to maintain video quality in terms of PSNR above a specified
threshold while minimizing the average bitrate of the compressed video.
Experimental results, conducted on both QCIF dataset and a diverse range of
random videos from public datasets, validate the effectiveness of this
approach. Notably, it achieves improvements of up to 2.5 times in average
bandwidth usage compared to the state-of-the-art adaptive bitrate video
streaming, with a negligible non-conformance probability below $10^{-2}$.
- Abstract(参考訳): ワイヤレスユーザのための高品質なビデオコンテンツの確保がますます重要になっている。
それでも、ビデオ品質の一定レベルを維持することは、特にライブストリーミングのシナリオにおいて、動的ビデオコンテンツによって主に引き起こされるビットレートが変動するため、課題に直面している。
ビデオ圧縮は通常、ビデオフレーム内の不必要な冗長性を排除し、ビデオ伝送に必要な帯域幅を減らすために使用される。
符号化ビットレートと圧縮ビデオの品質は、エンコーダパラメータ、具体的には量子化パラメータ(QP)に依存する。
エンコーダパラメータの少ない選択は、帯域幅効率を低下させ、非整合の可能性が高くなる。
非コンフォーマンスとは、符号化されたビデオセグメントに対するピーク信号対雑音比(PSNR)制約に違反していることを指す。
これらの問題に対処するために,リアルタイム深層学習に基づくH.264コントローラを提案する。
このコントローラは、最小遅延でビデオチャンクの内容に基づいて最適なエンコーダパラメータを動的に推定する。
圧縮されたビデオの平均ビットレートを最小化しながら、特定の閾値を超えるPSNRで映像品質を維持することが目的である。
QCIFデータセットと公開データセットからの多様なランダムビデオの両方で実施された実験結果は、このアプローチの有効性を検証する。
特に、最先端の適応ビットレートビデオストリーミングと比較して、平均帯域幅使用量の最大2.5倍の改善を実現しており、非互換性確率は10-2$以下である。
関連論文リスト
- When Video Coding Meets Multimodal Large Language Models: A Unified Paradigm for Video Coding [112.44822009714461]
CMVC(Cross-Modality Video Coding)は、ビデオ符号化における多モード表現とビデオ生成モデルを探索する先駆的な手法である。
復号化の際には、以前に符号化されたコンポーネントとビデオ生成モデルを利用して複数の復号モードを生成する。
TT2Vは効果的な意味再構成を実現し,IT2Vは競争力のある知覚整合性を示した。
論文 参考訳(メタデータ) (2024-08-15T11:36:18Z) - Compression-Realized Deep Structural Network for Video Quality Enhancement [78.13020206633524]
本稿では,圧縮ビデオの品質向上の課題に焦点をあてる。
既存の手法のほとんどは、圧縮コーデック内での事前処理を最適に活用するための構造設計を欠いている。
新しいパラダイムは、より意識的な品質向上プロセスのために緊急に必要である。
論文 参考訳(メタデータ) (2024-05-10T09:18:17Z) - A Parametric Rate-Distortion Model for Video Transcoding [7.1741986121107235]
パラメトリックレート歪み(R-D)トランスコーダモデルを提案する。
ビデオのエンコーディングを必要とせず,様々な速度で歪みを予測できるモデルを開発した。
トランスサイズにより視覚的品質改善(PSNR)を達成するために使用できる。
論文 参考訳(メタデータ) (2024-04-13T15:37:57Z) - NU-Class Net: A Novel Approach for Video Quality Enhancement [1.7763979745248648]
本稿では,圧縮コーデックによる圧縮アーチファクトの軽減を目的とした,革新的な深層学習モデルであるNU-Class Netを紹介する。
NU-Class Netを利用することで、ビデオキャプチャノード内のビデオエンコーダは出力品質を低下させ、低ビットレートのビデオを生成することができる。
実験により,低ビットレートでストリーミングされたビデオの知覚品質を高めるためのモデルの有効性が確認された。
論文 参考訳(メタデータ) (2024-01-02T11:46:42Z) - Deep Learning-Based Real-Time Rate Control for Live Streaming on
Wireless Networks [31.285983939625098]
エンコーダパラメータのサブ最適選択は、帯域幅による映像品質の低下や、パケットロスによるアーティファクトの導入につながる可能性がある。
リアルタイム深層学習に基づくH.264コントローラが提案され、最適エンコーダパラメータをリアルタイムに無視可能な遅延で動的に推定する。
注目すべきは、PSNRの10-20dBの改善と、最先端の適応型ビデオストリーミングの再現を実現し、パケットのドロップレートを0.002まで下げることである。
論文 参考訳(メタデータ) (2023-09-27T17:53:35Z) - Video Compression with Arbitrary Rescaling Network [8.489428003916622]
符号化前のビデオリサイズのためのレート誘導任意再スケーリングネットワーク(RARN)を提案する。
軽量RARN構造は、FHD(1080p)コンテンツをリアルタイム(91 FPS)で処理し、かなりのレート低下を得ることができる。
論文 参考訳(メタデータ) (2023-06-07T07:15:18Z) - Perceptual Quality Assessment of Face Video Compression: A Benchmark and
An Effective Method [69.868145936998]
生成的符号化アプローチは、合理的な速度歪曲トレードオフを持つ有望な代替手段として認識されている。
従来のハイブリッドコーディングフレームワークから生成モデルまで、空間的・時間的領域における歪みの多様さは、圧縮顔画像品質評価(VQA)における大きな課題を提示する。
大規模圧縮顔画像品質評価(CFVQA)データベースを導入し,顔ビデオの知覚的品質と多角化圧縮歪みを体系的に理解するための最初の試みである。
論文 参考訳(メタデータ) (2023-04-14T11:26:09Z) - Leveraging Bitstream Metadata for Fast, Accurate, Generalized Compressed
Video Quality Enhancement [74.1052624663082]
圧縮ビデオの細部を復元する深層学習アーキテクチャを開発した。
これにより,従来の圧縮補正法と比較して復元精度が向上することを示す。
我々は、ビットストリームで容易に利用できる量子化データに対して、我々のモデルを条件付けする。
論文 参考訳(メタデータ) (2022-01-31T18:56:04Z) - Ultra-low bitrate video conferencing using deep image animation [7.263312285502382]
ビデオ会議のための超低速ビデオ圧縮のための新しい深層学習手法を提案する。
我々はディープニューラルネットワークを用いて、動き情報をキーポイント変位として符号化し、デコーダ側で映像信号を再構成する。
論文 参考訳(メタデータ) (2020-12-01T09:06:34Z) - Content Adaptive and Error Propagation Aware Deep Video Compression [110.31693187153084]
本稿では,コンテンツ適応型・誤り伝搬対応型ビデオ圧縮システムを提案する。
本手法では, 複数フレームの圧縮性能を1フレームではなく複数フレームで考慮し, 共同学習手法を用いる。
従来の圧縮システムでは手作りのコーディングモードを使用する代わりに,オンラインエンコーダ更新方式をシステム内に設計する。
論文 参考訳(メタデータ) (2020-03-25T09:04:24Z) - Learning for Video Compression with Hierarchical Quality and Recurrent
Enhancement [164.7489982837475]
本稿では,階層型ビデオ圧縮(HLVC)手法を提案する。
我々のHLVCアプローチでは、エンコーダ側とデコーダ側の低品質フレームの圧縮と強化を容易にするため、階層的品質は符号化効率の恩恵を受ける。
論文 参考訳(メタデータ) (2020-03-04T09:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。