論文の概要: A Combined Deep Learning based End-to-End Video Coding Architecture for
YUV Color Space
- arxiv url: http://arxiv.org/abs/2104.00807v1
- Date: Thu, 1 Apr 2021 23:41:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 14:06:30.135626
- Title: A Combined Deep Learning based End-to-End Video Coding Architecture for
YUV Color Space
- Title(参考訳): YUV色空間のための深層学習に基づくエンドツーエンドビデオ符号化アーキテクチャ
- Authors: Ankitesh K. Singh, Hilmi E. Egilmez, Reza Pourreza, Muhammed Coban,
Marta Karczewicz, Taco S. Cohen
- Abstract要約: 既存のディープラーニングベースのエンドツーエンドビデオコーディング(DLEC)アーキテクチャのほとんどは、RGBカラーフォーマット用に特別に設計されています。
本稿では、YUV 4:2:0を効果的にサポートするビデオコーディング用の新しいDLECアーキテクチャを導入し、そのパフォーマンスをHEVC標準と比較する。
- 参考スコア(独自算出の注目度): 14.685161934404123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the existing deep learning based end-to-end video coding (DLEC)
architectures are designed specifically for RGB color format, yet the video
coding standards, including H.264/AVC, H.265/HEVC and H.266/VVC developed over
past few decades, have been designed primarily for YUV 4:2:0 format, where the
chrominance (U and V) components are subsampled to achieve superior compression
performances considering the human visual system. While a broad number of
papers on DLEC compare these two distinct coding schemes in RGB domain, it is
ideal to have a common evaluation framework in YUV 4:2:0 domain for a more fair
comparison. This paper introduces a new DLEC architecture for video coding to
effectively support YUV 4:2:0 and compares its performance against the HEVC
standard under a common evaluation framework. The experimental results on YUV
4:2:0 video sequences show that the proposed architecture can outperform HEVC
in intra-frame coding, however inter-frame coding is not as efficient on
contrary to the RGB coding results reported in recent papers.
- Abstract(参考訳): H.264/AVC、H.265/HEVC、H.266/VVCを含む既存のディープラーニングベースのエンドツーエンドビデオ符号化(DLEC)アーキテクチャは、主にYUV 4:2:0フォーマット用に設計されており、人間の視覚システムを考慮した優れた圧縮性能を達成するために、彩色(UとV)コンポーネントがサブサンプリングされている。
DLECに関する多くの論文は、RGBドメインでこれら2つの異なる符号化方式を比較しているが、より公正な比較のために、YUV 4:2:0ドメインで共通の評価フレームワークを持つことは理想的である。
本稿では,YUV 4:2:0を効果的にサポートするためのビデオ符号化のための新しいDLECアーキテクチャを提案する。
YUV 4:2:0ビデオシーケンスの実験結果から,提案アーキテクチャはフレーム内符号化においてHEVCより優れているが,最近の論文で報告されているRGB符号化結果とは対照的にフレーム間符号化は効率的ではない。
関連論文リスト
- When Video Coding Meets Multimodal Large Language Models: A Unified Paradigm for Video Coding [112.44822009714461]
CMVC(Cross-Modality Video Coding)は、ビデオ符号化における多モード表現とビデオ生成モデルを探索する先駆的な手法である。
復号化の際には、以前に符号化されたコンポーネントとビデオ生成モデルを利用して複数の復号モードを生成する。
TT2Vは効果的な意味再構成を実現し,IT2Vは競争力のある知覚整合性を示した。
論文 参考訳(メタデータ) (2024-08-15T11:36:18Z) - Benchmarking Conventional and Learned Video Codecs with a Low-Delay Configuration [11.016119119250765]
本稿では,低遅延構成に基づく従来型および学習型ビデオ符号化手法の比較研究を行う。
その結果, YCbCr 4:2:0色空間におけるAOMおよびMPEG共通試験条件で定義された試験系列について, 公平かつ有意義な比較を行うことができた。
評価結果から,JVETのECMコーデックは,テスト対象のすべてのコーデックの中で,最高の全体的な符号化性能を提供することがわかった。
論文 参考訳(メタデータ) (2024-08-09T12:55:23Z) - Hierarchical B-frame Video Coding for Long Group of Pictures [42.229439873835254]
本稿では、フレームの長いシーケンスでのトレーニング、レートアロケーション、推論によるコンテンツ適応を組み合わせたランダムアクセスのためのエンドツーエンドの学習ビデオを提案する。
一般的なテスト条件下では、ビデオのクラスによっては、YUV-PSNR BD-Rateの点でVTMに匹敵する結果が得られる。
平均して、VMAFとYUV BD-Ratesの点で、オープンLDとRAのエンドツーエンドソリューションを上回っている。
論文 参考訳(メタデータ) (2024-06-24T11:29:52Z) - Learned Hierarchical B-frame Coding with Adaptive Feature Modulation for
YUV 4:2:0 Content [13.289507865388863]
本稿では,ISCAS 2023におけるニューラルネットワークに基づくビデオ符号化のグランドチャレンジに対応する,階層的Bフレーム符号化方式を提案する。
具体的には,(1)Bフレーム符号化,(2)YUV 4:2:0符号化,(3)単一モデルのみによるコンテンツ適応型可変レート符号化の3つの問題に対処する。
論文 参考訳(メタデータ) (2022-12-29T06:22:52Z) - Learned Video Compression for YUV 4:2:0 Content Using Flow-based
Conditional Inter-frame Coding [24.031385522441497]
本稿では,YUV 4:2:0コンテンツ上での可変レート符号化のための学習型ビデオ圧縮フレームワークを提案する。
条件付きフローベースフレーム間コーダを導入し,フレーム間符号化効率を向上させる。
実験結果から,UVGおよびMCL-JCVデータセットのX265よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-10-15T08:36:01Z) - CANF-VC: Conditional Augmented Normalizing Flows for Video Compression [81.41594331948843]
CANF-VCは、エンドツーエンドの学習ベースのビデオ圧縮システムである。
条件付き拡張正規化フロー(ANF)に基づく。
論文 参考訳(メタデータ) (2022-07-12T04:53:24Z) - Efficient VVC Intra Prediction Based on Deep Feature Fusion and
Probability Estimation [57.66773945887832]
本稿では,フレーム内予測におけるVersatile Video Coding (VVC) の複雑性を,深層融合と確率推定の2段階のフレームワークを用いて最適化することを提案する。
特に高精細度(HD)および超高精細度(UHD)ビデオシーケンスにおいて,提案手法の優位性を示す実験結果が得られた。
論文 参考訳(メタデータ) (2022-05-07T08:01:32Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Video Corpus Moment Retrieval with Contrastive Learning [56.249924768243375]
ビデオコーパスモーメント検索(VCMR)は、与えられたテキストクエリに意味的に対応する時間モーメントを取得することです。
VCMRのためのコントラシブラーニング(ReLoCLNet)を用いた検索・ローカリゼーションネットワークを提案する。
実験の結果、ReLoCLNetは効率のためにテキストとビデオを個別にエンコードし、その検索精度はクロスモーダル相互作用学習を採用するベースラインと匹敵する。
論文 参考訳(メタデータ) (2021-05-13T12:54:39Z) - Transform Network Architectures for Deep Learning based End-to-End
Image/Video Coding in Subsampled Color Spaces [16.83399026040147]
本稿では,YUV 4:2:0フォーマットをサポートする様々なDLEC設計について検討する。
YUV 4:2:0データのコーディング効率を改善するために、新しい変換ネットワークアーキテクチャが提案されている。
論文 参考訳(メタデータ) (2021-02-27T06:47:27Z) - Deep Video Inpainting Detection [95.36819088529622]
映像インペインティング検出は、映像内のインペイント領域を空間的および時間的にローカライズする。
VIDNet, Video Inpainting Detection Networkは、注意モジュールを備えた2ストリームエンコーダデコーダアーキテクチャを含む。
論文 参考訳(メタデータ) (2021-01-26T20:53:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。