論文の概要: Evaluating Foveated Video Quality Using Entropic Differencing
- arxiv url: http://arxiv.org/abs/2106.06817v1
- Date: Sat, 12 Jun 2021 16:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:03:29.795064
- Title: Evaluating Foveated Video Quality Using Entropic Differencing
- Title(参考訳): エントロピーディフレクションを用いた映像品質評価
- Authors: Yize Jin, Anjul Patney, Alan Bovik
- Abstract要約: 本稿では,帯域通過応答の自然なシーン統計を用いた画像品質評価アルゴリズムを提案する。
提案アルゴリズムは,FEDが人的判断に対して行う予測の相関性を測定して評価する。
提案アルゴリズムの性能は,既存の全参照アルゴリズムと比較して最先端である。
- 参考スコア(独自算出の注目度): 1.5877673959068452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual Reality is regaining attention due to recent advancements in hardware
technology. Immersive images / videos are becoming widely adopted to carry
omnidirectional visual information. However, due to the requirements for higher
spatial and temporal resolution of real video data, immersive videos require
significantly larger bandwidth consumption. To reduce stresses on bandwidth,
foveated video compression is regaining popularity, whereby the space-variant
spatial resolution of the retina is exploited. Towards advancing the progress
of foveated video compression, we propose a full reference (FR) foveated image
quality assessment algorithm, which we call foveated entropic differencing
(FED), which employs the natural scene statistics of bandpass responses by
applying differences of local entropies weighted by a foveation-based error
sensitivity function. We evaluate the proposed algorithm by measuring the
correlations of the predictions that FED makes against human judgements on the
newly created 2D and 3D LIVE-FBT-FCVR databases for Virtual Reality (VR). The
performance of the proposed algorithm yields state-of-the-art as compared with
other existing full reference algorithms. Software for FED has been made
available at: http://live.ece.utexas.edu/research/Quality/FED.zip
- Abstract(参考訳): ハードウェア技術の最近の進歩により、仮想現実は再び注目を集めている。
没入型画像/映像は全方位視覚情報を運ぶために広く採用されている。
しかし,実映像データの空間分解能や時間分解能が要求されるため,没入型ビデオの帯域幅は大幅に増大する。
帯域幅に対するストレスを軽減するため、フォベートビデオ圧縮の人気が回復し、網膜の空間的解像度が悪用される。
そこで我々は,FED(Foveated Entropic Differentencing)と呼ばれる,FED(Froveated Entropic Differentencing)と呼ばれるフルリファレンス画像品質評価アルゴリズムを提案する。
提案アルゴリズムは,FEDが新たに作成した2Dおよび3D LIVE-FBT-FCVRデータベース上での人間の判断に対して行う予測の相関性を測定して評価する。
提案アルゴリズムの性能は,既存の全参照アルゴリズムと比較して最先端である。
FEDのソフトウェアは、http://live.ece.utexas.edu/research/Quality/FED.zipで公開されている。
関連論文リスト
- Exploring Long- and Short-Range Temporal Information for Learned Video
Compression [54.91301930491466]
圧縮性能を高めるために,映像コンテンツの特徴を活かし,時間的情報を探究することに注力する。
本稿では,画像群(GOP)内で画像の推測中に連続的に更新できる時間前処理を提案する。
この場合、時間的事前は、現在のGOP内のすべてのデコードされた画像の貴重な時間的情報を含む。
本稿では,マルチスケール補償を実現する階層構造を設計する。
論文 参考訳(メタデータ) (2022-08-07T15:57:18Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - Foveation-based Deep Video Compression without Motion Search [43.70396515286677]
VRで見るビデオのごく一部しか、ユーザーが特定の方向を見つめるときに見ることができないため、ファベーションプロトコルは望ましい。
我々は、ビットの割り当てを指示するフォベーションマスクを生成するFGU(Foveation Generator Unit)を導入することにより、フォベーションを実現する。
我々の新しい圧縮モデルは、Foveated Motionless VIdeo Codec (Foveated MOVI-Codec)と呼ばれ、モーションを計算せずに効率的に動画を圧縮することができる。
論文 参考訳(メタデータ) (2022-03-30T17:30:17Z) - FAVER: Blind Quality Prediction of Variable Frame Rate Videos [47.951054608064126]
ビデオ品質アセスメント(VQA)は、最も大規模な多くのアプリケーションに影響を与える重要かつ困難な問題であり続けている。
我々は、フレームレート対応ビデオ評価器w/o参照(FAVER)をダブした、HFRビデオの評価のための第一種ブラインドVQAモデルを提案する。
いくつかのHFRビデオ品質データセットに対する実験により、FAVERは他の盲点VQAアルゴリズムよりも妥当な計算コストで優れていることが示された。
論文 参考訳(メタデータ) (2022-01-05T07:54:12Z) - Deep Two-Stream Video Inference for Human Body Pose and Shape Estimation [18.14237514372724]
RGBビデオから3次元のポーズとメッシュを生成する新しいフレームワークを提案する。
SMPLパラメータを予測するために,トランスフォーマーに基づく2ストリーム時間ネットワークを訓練する。
提案アルゴリズムは,Human3.6と3DPWのデータセットで広く評価されている。
論文 参考訳(メタデータ) (2021-10-22T10:01:13Z) - Perceptual Learned Video Compression with Recurrent Conditional GAN [158.0726042755]
本稿では, PVC (Perceptual Learned Video Compression) アプローチを提案する。
PLVCは低ビットレートで映像を知覚品質に圧縮することを学ぶ。
ユーザスタディでは、最新の学習ビデオ圧縮手法と比較して、PLVCの優れた知覚性能をさらに検証している。
論文 参考訳(メタデータ) (2021-09-07T13:36:57Z) - FOVQA: Blind Foveated Video Quality Assessment [1.4127304025810108]
FOVQAと呼ばれるビデオ品質評価モデルを開発した。
空間変動自然シーン統計(NSS)と自然映像統計(NVS)の新しいモデルに基づく。
FOVQAは2D LIVE-FBT-FCVRデータベース上での最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T21:38:22Z) - Decomposition, Compression, and Synthesis (DCS)-based Video Coding: A
Neural Exploration via Resolution-Adaptive Learning [30.54722074562783]
入力映像をそれぞれの空間テクスチャフレーム(STF)に分解する。
次に,一般的なビデオコーダを用いて圧縮する。
最後に,デコードされたSTFとTMFをネイティブ入力と同じ解像度で合成し,高品質なビデオ再構成を実現する。
論文 参考訳(メタデータ) (2020-12-01T17:23:53Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - ST-GREED: Space-Time Generalized Entropic Differences for Frame Rate
Dependent Video Quality Prediction [63.749184706461826]
本研究では, フレームレートが知覚品質に与える影響と, フレームレートと圧縮が, 知覚品質に与える影響について検討した。
本研究では,空間的および時間的帯域通過映像係数の統計を解析する空間時間生成エントロピー差(GREED)と呼ばれる客観的VQAモデルを提案する。
GREEDは、既存のVQAモデルと比較した場合、LIVE-YT-HFRデータベース上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-26T16:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。