論文の概要: LL-GABR: Energy Efficient Live Video Streaming Using Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2402.09392v1
- Date: Wed, 14 Feb 2024 18:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 13:56:38.163478
- Title: LL-GABR: Energy Efficient Live Video Streaming Using Reinforcement
Learning
- Title(参考訳): LL-GABR:強化学習を用いたエネルギー効率の良いライブビデオストリーミング
- Authors: Adithya Raman, Bekir Turkkan and Tevfik Kosar
- Abstract要約: 本稿では,QoEをエネルギー消費ではなく映像品質でモデル化する深層強化学習手法であるLLGABRを提案する。
LLGABRは知覚的QoEでは44%,エネルギー効率は73%向上した。
- 参考スコア(独自算出の注目度): 3.360922672565235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the recent years, research and development in adaptive bitrate (ABR)
algorithms for live video streaming have been successful in improving users'
quality of experience (QoE) by reducing latency to near real-time levels while
delivering higher bitrate videos with minimal rebuffering time. However, the
QoE models used by these ABR algorithms do not take into account that a large
portion of live video streaming clients use mobile devices where a higher
bitrate does not necessarily translate into higher perceived quality. Ignoring
perceived quality results in playing videos at higher bitrates without a
significant increase in perceptual video quality and becomes a burden for
battery-constrained mobile devices due to higher energy consumption. In this
paper, we propose LL-GABR, a deep reinforcement learning approach that models
the QoE using perceived video quality instead of bitrate and uses energy
consumption along with other metrics like latency, rebuffering events, and
smoothness. LL-GABR makes no assumptions about the underlying video,
environment, or network settings and can operate flexibly on different video
titles, each having a different bitrate encoding ladder without additional
re-training, unlike existing learning-based ABRs. Trace-driven experimental
results show that LL-GABR outperforms the state-of-the-art approaches by up to
44% in terms of perceptual QoE and a 73% increase in energy efficiency as a
result of reducing net energy consumption by 11%.
- Abstract(参考訳): 近年、ライブビデオストリーミングのための適応ビットレート(ABR)アルゴリズムの研究と開発は、レイテンシをほぼリアルタイムレベルに低減し、リバッファング時間を最小限に抑えることで、ユーザのQoE(Quality of Experience)を改善することに成功した。
しかし、これらのABRアルゴリズムで使用されるQoEモデルは、高ビットレートが必ずしも高い品質に変換されないモバイルデバイスを使用するライブビデオストリーミングクライアントの大部分を考慮に入れていない。
高ビットレートでの動画再生における品質の無視は、知覚的ビデオ品質を著しく向上させることなく、高エネルギー消費による電池制約のモバイル機器の負担となる。
本稿では,QoEをビットレートの代わりに知覚ビデオ品質を用いてモデル化し,遅延,リバッファリングイベント,スムーズネスといった他の指標とともにエネルギー消費を利用する深層強化学習手法であるLL-GABRを提案する。
ll-gabrは、基礎となるビデオ、環境、ネットワークの設定を前提とせず、異なるビデオタイトルで柔軟に動作し、それぞれが別のビットレートエンコードラダーを持つ。
その結果, LL-GABRは知覚的QoEでは44%, エネルギー効率は73%向上し, エネルギー消費は11%減少した。
関連論文リスト
- Adaptive Caching for Faster Video Generation with Diffusion Transformers [52.73348147077075]
拡散変換器(DiT)はより大きなモデルと重い注意機構に依存しており、推論速度が遅くなる。
本稿では,Adaptive Caching(AdaCache)と呼ばれる,ビデオDiTの高速化のためのトレーニング不要手法を提案する。
また,AdaCache内で動画情報を利用するMoReg方式を導入し,動作内容に基づいて計算割り当てを制御する。
論文 参考訳(メタデータ) (2024-11-04T18:59:44Z) - Binarized Low-light Raw Video Enhancement [49.65466843856074]
ディープニューラルネットワークは、低照度生ビデオの強化において優れたパフォーマンスを実現している。
本稿では,低照度生ビデオエンハンスメントに超コンパクトなバイナリニューラルネットワーク(BNN)を適用する可能性について検討する。
論文 参考訳(メタデータ) (2024-03-29T02:55:07Z) - NU-Class Net: A Novel Approach for Video Quality Enhancement [1.7763979745248648]
本稿では,圧縮コーデックによる圧縮アーチファクトの軽減を目的とした,革新的な深層学習モデルであるNU-Class Netを紹介する。
NU-Class Netを利用することで、ビデオキャプチャノード内のビデオエンコーダは出力品質を低下させ、低ビットレートのビデオを生成することができる。
実験により,低ビットレートでストリーミングされたビデオの知覚品質を高めるためのモデルの有効性が確認された。
論文 参考訳(メタデータ) (2024-01-02T11:46:42Z) - Deep Learning-Based Real-Time Quality Control of Standard Video
Compression for Live Streaming [31.285983939625098]
リアルタイム深層学習に基づくH.264コントローラを提案する。
最小遅延でビデオチャンクの内容に基づいて最適なエンコーダパラメータを推定する。
平均帯域使用量の最大2.5倍の改善を実現している。
論文 参考訳(メタデータ) (2023-11-21T18:28:35Z) - Deep Learning-Based Real-Time Rate Control for Live Streaming on
Wireless Networks [31.285983939625098]
エンコーダパラメータのサブ最適選択は、帯域幅による映像品質の低下や、パケットロスによるアーティファクトの導入につながる可能性がある。
リアルタイム深層学習に基づくH.264コントローラが提案され、最適エンコーダパラメータをリアルタイムに無視可能な遅延で動的に推定する。
注目すべきは、PSNRの10-20dBの改善と、最先端の適応型ビデオストリーミングの再現を実現し、パケットのドロップレートを0.002まで下げることである。
論文 参考訳(メタデータ) (2023-09-27T17:53:35Z) - AccDecoder: Accelerated Decoding for Neural-enhanced Video Analytics [26.012783785622073]
低画質のビデオは、品質の悪いカメラや、過度に圧縮/切断されたビデオストリーミングプロトコルのために、既存の監視システムによって収集される。
AccDecoderは、リアルタイムおよびニューラルネットワークベースのビデオ分析のための新しいアクセラレーションデコーダである。
論文 参考訳(メタデータ) (2023-01-20T16:30:44Z) - FAVER: Blind Quality Prediction of Variable Frame Rate Videos [47.951054608064126]
ビデオ品質アセスメント(VQA)は、最も大規模な多くのアプリケーションに影響を与える重要かつ困難な問題であり続けている。
我々は、フレームレート対応ビデオ評価器w/o参照(FAVER)をダブした、HFRビデオの評価のための第一種ブラインドVQAモデルを提案する。
いくつかのHFRビデオ品質データセットに対する実験により、FAVERは他の盲点VQAアルゴリズムよりも妥当な計算コストで優れていることが示された。
論文 参考訳(メタデータ) (2022-01-05T07:54:12Z) - High Frame Rate Video Quality Assessment using VMAF and Entropic
Differences [50.265638572116984]
ライブでハイアクションなコンテンツによるストリーミングビデオの人気は、ハイフレームレート(HFR)ビデオへの関心を高めている。
本稿では,比較対象の動画がフレームレートと圧縮係数が異なる場合に,フレームレートに依存するビデオ品質評価(VQA)の問題に対処する。
提案する融合フレームワークは,フレームレートに依存した映像品質を予測するために,より効率的な特徴をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-27T04:08:12Z) - NeuSaver: Neural Adaptive Power Consumption Optimization for Mobile
Video Streaming [3.3194866396158003]
NeuSaverは、ユーザーエクスペリエンスを損なうことなく、各ビデオチャンクに適応的なフレームレートを適用する。
NeuSaverは、各ビデオチャンクの適切なフレームレートを決定する最適なポリシーを生成する。
NeuSaverは、QoEを高く達成しながら、平均16.14%、最大23.12%の動画ストリーミングでモバイルデバイスの消費電力を効果的に削減する。
論文 参考訳(メタデータ) (2021-07-15T05:17:17Z) - Multi-level Wavelet-based Generative Adversarial Network for Perceptual
Quality Enhancement of Compressed Video [51.631731922593225]
既存の手法は主に、その知覚的品質を無視しながら、圧縮映像の客観的品質を高めることに焦点を当てている。
圧縮ビデオの知覚品質を高めるために,マルチレベルウェーブレットパケット変換(WPT)に基づくGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2020-08-02T15:01:38Z) - Subjective and Objective Quality Assessment of High Frame Rate Videos [60.970191379802095]
高フレームレート(HFR)ビデオは、スポーツなどのライブ、高アクションのストリーミングコンテンツが驚くほど人気を博し、ますます一般的になっている。
ライブYT-HFRデータセットは、6つの異なるフレームレートを持つ480のビデオで構成され、16の多様なコンテンツから得られる。
ビデオの主観的ラベルを得るために,85人の被験者のプールから得られた品質評価を19,000件取得した。
論文 参考訳(メタデータ) (2020-07-22T19:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。