論文の概要: Network state Estimation using Raw Video Analysis: vQoS-GAN based
non-intrusive Deep Learning Approach
- arxiv url: http://arxiv.org/abs/2204.07062v1
- Date: Tue, 22 Mar 2022 10:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-17 07:29:12.347858
- Title: Network state Estimation using Raw Video Analysis: vQoS-GAN based
non-intrusive Deep Learning Approach
- Title(参考訳): 生ビデオ解析を用いたネットワーク状態推定:vQoS-GANに基づく非侵入的ディープラーニングアプローチ
- Authors: Renith G, Harikrishna Warrier, Yogesh Gupta
- Abstract要約: vQoS GANは、劣化した受信ビデオデータからネットワーク状態パラメータを推定することができる。
ディープラーニングネットワークモデルのロバストでユニークな設計が、データレートとパケット損失クラスラベルと共にビデオデータで訓練されている。
提案した半教師付き生成対向ネットワークは、劣化したビデオデータを元の形式に再構築することで、より良いエンドユーザー体験を実現する。
- 参考スコア(独自算出の注目度): 5.8010446129208155
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Content based providers transmits real time complex signal such as video data
from one region to another. During this transmission process, the signals
usually end up distorted or degraded where the actual information present in
the video is lost. This normally happens in the streaming video services
applications. Hence there is a need to know the level of degradation that
happened in the receiver side. This video degradation can be estimated by
network state parameters like data rate and packet loss values. Our proposed
solution vQoS GAN (video Quality of Service Generative Adversarial Network) can
estimate the network state parameters from the degraded received video data
using a deep learning approach of semi supervised generative adversarial
network algorithm. A robust and unique design of deep learning network model
has been trained with the video data along with data rate and packet loss class
labels and achieves over 95 percent of training accuracy. The proposed semi
supervised generative adversarial network can additionally reconstruct the
degraded video data to its original form for a better end user experience.
- Abstract(参考訳): コンテンツベースプロバイダは、ある領域から別の領域へビデオデータなどのリアルタイム複合信号を送信する。
この伝送過程の間、信号は通常、ビデオに存在する実際の情報が失われるときに歪んだり、劣化したりする。
これは通常、ストリーミングビデオサービスアプリケーションで発生する。
したがって、受信側で発生した劣化のレベルを知る必要がある。
このビデオ劣化は、データレートやパケット損失値などのネットワーク状態パラメータによって推定できる。
提案手法であるvqos gan(video quality of service generative adversarial network)は,半教師付き生成型adversarial networkアルゴリズムのディープラーニング手法を用いて,劣化した映像データからネットワーク状態パラメータを推定する。
ディープラーニングネットワークモデルの堅牢でユニークな設計が、データレートとパケット損失クラスラベルとともにビデオデータで訓練され、95%以上のトレーニング精度が達成されている。
提案した半教師付き生成対向ネットワークは、劣化したビデオデータを元の形式に再構築することで、より良いエンドユーザー体験を実現する。
関連論文リスト
- CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Self-Supervised Adaptation for Video Super-Resolution [7.26562478548988]
シングルイメージスーパーリゾリューション(SISR)ネットワークは、特定の入力画像にネットワークパラメータを適応させることができます。
従来のビデオスーパーレゾリューション(VSR)ネットワークがビデオフレームをテストするためにパラメータを適応できるようにする新しい学習アルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-03-18T08:30:24Z) - Ultra-low bitrate video conferencing using deep image animation [7.263312285502382]
ビデオ会議のための超低速ビデオ圧縮のための新しい深層学習手法を提案する。
我々はディープニューラルネットワークを用いて、動き情報をキーポイント変位として符号化し、デコーダ側で映像信号を再構成する。
論文 参考訳(メタデータ) (2020-12-01T09:06:34Z) - Training Strategies and Data Augmentations in CNN-based DeepFake Video
Detection [17.696134665850447]
ビデオにおける顔偽造検出のための自動システムの精度は依然として非常に限られており、特定の検知システムの設計と訓練に使用されるデータセットに偏っている。
本稿では、異なるトレーニング戦略とデータ拡張技術が、同じデータセット上でトレーニングやテストを行う場合、あるいは異なるデータセット間で、CNNベースのディープフェイク検出器にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2020-11-16T08:50:56Z) - HRVGAN: High Resolution Video Generation using Spatio-Temporal GAN [0.0]
我々は高解像度ビデオ生成のための新しいネットワークを提案する。
我々のネットワークは、損失項にk-Lipschitz制約を課し、クラスラベルをトレーニングとテストに使用することで、Wasserstein GANのアイデアを使用する。
論文 参考訳(メタデータ) (2020-08-17T20:45:59Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z) - Learning the Loss Functions in a Discriminative Space for Video
Restoration [48.104095018697556]
本稿では,映像復元作業に特有の識別空間を学習し,効果的な損失関数を構築するための新しい枠組みを提案する。
私たちのフレームワークは、ジェネレータと損失ネットワークという2つのネットワークを反復的にトレーニングするという点で、GANと似ています。
ビデオスーパーレゾリューションとデブロワーリングの実験により,我々の手法がより視覚的に楽しいビデオを生成することが示された。
論文 参考訳(メタデータ) (2020-03-20T06:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。