論文の概要: Learned Hierarchical B-frame Coding with Adaptive Feature Modulation for
YUV 4:2:0 Content
- arxiv url: http://arxiv.org/abs/2212.14187v1
- Date: Thu, 29 Dec 2022 06:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 15:45:51.334874
- Title: Learned Hierarchical B-frame Coding with Adaptive Feature Modulation for
YUV 4:2:0 Content
- Title(参考訳): YUV 4:2:0コンテンツに対する適応的特徴変調を用いた階層的Bフレーム符号化
- Authors: Mu-Jung Chen, Hong-Sheng Xie, Cheng Chien, Wen-Hsiao Peng, Hsueh-Ming
Hang
- Abstract要約: 本稿では,ISCAS 2023におけるニューラルネットワークに基づくビデオ符号化のグランドチャレンジに対応する,階層的Bフレーム符号化方式を提案する。
具体的には,(1)Bフレーム符号化,(2)YUV 4:2:0符号化,(3)単一モデルのみによるコンテンツ適応型可変レート符号化の3つの問題に対処する。
- 参考スコア(独自算出の注目度): 13.289507865388863
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a learned hierarchical B-frame coding scheme in
response to the Grand Challenge on Neural Network-based Video Coding at ISCAS
2023. We address specifically three issues, including (1) B-frame coding, (2)
YUV 4:2:0 coding, and (3) content-adaptive variable-rate coding with only one
single model. Most learned video codecs operate internally in the RGB domain
for P-frame coding. B-frame coding for YUV 4:2:0 content is largely
under-explored. In addition, while there have been prior works on variable-rate
coding with conditional convolution, most of them fail to consider the content
information. We build our scheme on conditional augmented normalized flows
(CANF). It features conditional motion and inter-frame codecs for efficient
B-frame coding. To cope with YUV 4:2:0 content, two conditional inter-frame
codecs are used to process the Y and UV components separately, with the coding
of the UV components conditioned additionally on the Y component. Moreover, we
introduce adaptive feature modulation in every convolutional layer, taking into
account both the content information and the coding levels of B-frames to
achieve content-adaptive variable-rate coding. Experimental results show that
our model outperforms x265 and the winner of last year's challenge on commonly
used datasets in terms of PSNR-YUV.
- Abstract(参考訳): 本稿では,ISCAS 2023におけるニューラルネットワークに基づくビデオ符号化のグランドチャレンジに対応する,階層的Bフレーム符号化方式を提案する。
具体的には,(1)Bフレーム符号化,(2)YUV 4:2:0符号化,(3)単一モデルのみによるコンテンツ適応型可変レート符号化の3つの問題に対処する。
ほとんどの学習ビデオコーデックは、Pフレーム符号化のためにRGBドメインで内部で動作する。
yuv 4:2:0コンテンツのbフレームコーディングは、ほとんど未検討である。
さらに、条件付き畳み込みを用いた可変レートコーディングに関する先行研究があったが、そのほとんどはコンテンツ情報について考慮しなかった。
我々は条件付き拡張正規化流れ(canf)に基づくスキームを構築する。
効率的なBフレーム符号化のための条件付きモーションとフレーム間コーデックを備えている。
YUV 4:2:0の内容に対処するため、2つの条件付きフレーム間コーデックを使用して、Y成分とUV成分を別々に処理し、Y成分に条件付きUV成分の符号化を行う。
さらに,コンボリューション層毎に適応的特徴変調を導入し,コンテンツ情報とbフレームの符号化レベルの両方を考慮して,コンテンツ適応型可変レート符号化を実現する。
実験の結果,モデルがx265を上回っており,psnr-yuvの一般的なデータセットに対する昨年のチャレンジの勝者であることが判明した。
関連論文リスト
- When Video Coding Meets Multimodal Large Language Models: A Unified Paradigm for Video Coding [112.44822009714461]
CMVC(Cross-Modality Video Coding)は、ビデオ符号化における多モード表現とビデオ生成モデルを探索する先駆的な手法である。
復号化の際には、以前に符号化されたコンポーネントとビデオ生成モデルを利用して複数の復号モードを生成する。
TT2Vは効果的な意味再構成を実現し,IT2Vは競争力のある知覚整合性を示した。
論文 参考訳(メタデータ) (2024-08-15T11:36:18Z) - Hierarchical B-frame Video Coding Using Two-Layer CANF without Motion
Coding [17.998825368770635]
2層拡張正規化フロー(CANF)に基づく新しいBフレーム符号化アーキテクチャを提案する。
モーションコーディングを伴わないビデオ圧縮というアイデアは,学習ビデオ符号化の新たな方向性を提供する。
提案方式の速度歪み性能は,最先端のBフレーム符号化方式であるB-CANFよりも若干低いが,他のBフレーム符号化方式よりも優れている。
論文 参考訳(メタデータ) (2023-04-05T18:36:28Z) - Learned Video Compression for YUV 4:2:0 Content Using Flow-based
Conditional Inter-frame Coding [24.031385522441497]
本稿では,YUV 4:2:0コンテンツ上での可変レート符号化のための学習型ビデオ圧縮フレームワークを提案する。
条件付きフローベースフレーム間コーダを導入し,フレーム間符号化効率を向上させる。
実験結果から,UVGおよびMCL-JCVデータセットのX265よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-10-15T08:36:01Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - CANF-VC: Conditional Augmented Normalizing Flows for Video Compression [81.41594331948843]
CANF-VCは、エンドツーエンドの学習ベースのビデオ圧縮システムである。
条件付き拡張正規化フロー(ANF)に基づく。
論文 参考訳(メタデータ) (2022-07-12T04:53:24Z) - A Coding Framework and Benchmark towards Low-Bitrate Video Understanding [63.05385140193666]
我々は,従来のコーデックとニューラルネットワーク(NN)の両方を活用する,従来型ニューラル混合符号化フレームワークを提案する。
このフレームワークは、動画の移動効率の良いセマンティック表現を確実に保持することで最適化される。
8つのデータセットに3つのダウンストリームタスクを備えた低ビットレートビデオ理解ベンチマークを構築し、このアプローチの顕著な優位性を実証した。
論文 参考訳(メタデータ) (2022-02-06T16:29:15Z) - A Combined Deep Learning based End-to-End Video Coding Architecture for
YUV Color Space [14.685161934404123]
既存のディープラーニングベースのエンドツーエンドビデオコーディング(DLEC)アーキテクチャのほとんどは、RGBカラーフォーマット用に特別に設計されています。
本稿では、YUV 4:2:0を効果的にサポートするビデオコーディング用の新しいDLECアーキテクチャを導入し、そのパフォーマンスをHEVC標準と比較する。
論文 参考訳(メタデータ) (2021-04-01T23:41:06Z) - Transform Network Architectures for Deep Learning based End-to-End
Image/Video Coding in Subsampled Color Spaces [16.83399026040147]
本稿では,YUV 4:2:0フォーマットをサポートする様々なDLEC設計について検討する。
YUV 4:2:0データのコーディング効率を改善するために、新しい変換ネットワークアーキテクチャが提案されている。
論文 参考訳(メタデータ) (2021-02-27T06:47:27Z) - Neural Video Coding using Multiscale Motion Compensation and
Spatiotemporal Context Model [45.46660511313426]
エンド・ツー・エンドのディープ・ニューラル・ビデオ・コーディング・フレームワーク(NVC)を提案する。
フレーム内画素、フレーム間運動、フレーム間補償残差の相関を利用するために、共同空間および時間的事前集約(PA)を備えた可変オートエンコーダ(VAE)を使用する。
NVCは低遅延因果条件で評価され、H.265/HEVC、H.264/AVC、その他の学習ビデオ圧縮法と比較される。
論文 参考訳(メタデータ) (2020-07-09T06:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。