論文の概要: Optical Flow and Mode Selection for Learning-based Video Coding
- arxiv url: http://arxiv.org/abs/2008.02580v1
- Date: Thu, 6 Aug 2020 11:21:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 06:35:53.654208
- Title: Optical Flow and Mode Selection for Learning-based Video Coding
- Title(参考訳): 学習映像符号化のための光学フローとモード選択
- Authors: Th\'eo Ladune (IETR), Pierrick Philippe, Wassim Hamidouche (IETR), Lu
Zhang (IETR), Olivier D\'eforges (IETR)
- Abstract要約: 本稿では,MOFNetとCodecNetという2つの相補的オートエンコーダを用いたフレーム間符号化手法を提案する。
MoFNetは光学フローとピクセルワイドコーディングモードの選択を計算し、伝達することを目的としている。
符号化モード選択は、予測の直接コピーとCodecNet経由の送信の競合を可能にする。
- 参考スコア(独自算出の注目度): 1.6619384554007748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a new method for inter-frame coding based on two
complementary autoencoders: MOFNet and CodecNet. MOFNet aims at computing and
conveying the Optical Flow and a pixel-wise coding Mode selection. The optical
flow is used to perform a prediction of the frame to code. The coding mode
selection enables competition between direct copy of the prediction or
transmission through CodecNet. The proposed coding scheme is assessed under the
Challenge on Learned Image Compression 2020 (CLIC20) P-frame coding conditions,
where it is shown to perform on par with the state-of-the-art video codec
ITU/MPEG HEVC. Moreover, the possibility of copying the prediction enables to
learn the optical flow in an end-to-end fashion i.e. without relying on
pre-training and/or a dedicated loss term.
- Abstract(参考訳): 本稿では,mofnetとcodecnetという2つの補完的オートエンコーダに基づくフレーム間符号化手法を提案する。
MOFNetは光学フローと画素単位の符号化モードの選択の計算と伝達を目的としている。
光の流れは、符号化するフレームの予測を行うために使用される。
符号化モード選択は、予測の直接コピーとCodecNetによる送信の競合を可能にする。
提案手法は, 学習画像圧縮2020(clic20)のpフレーム符号化条件に基づいて評価され, 最先端のビデオコーデックitu/mpeg hevcと同等の性能を示す。
さらに、予測をコピーする可能性により、事前学習や専用損失項に頼ることなく、エンドツーエンドで光の流れを学習することができる。
関連論文リスト
- When Video Coding Meets Multimodal Large Language Models: A Unified Paradigm for Video Coding [112.44822009714461]
CMVC(Cross-Modality Video Coding)は、ビデオ符号化における多モード表現とビデオ生成モデルを探索する先駆的な手法である。
復号化の際には、以前に符号化されたコンポーネントとビデオ生成モデルを利用して複数の復号モードを生成する。
TT2Vは効果的な意味再構成を実現し,IT2Vは競争力のある知覚整合性を示した。
論文 参考訳(メタデータ) (2024-08-15T11:36:18Z) - Prediction and Reference Quality Adaptation for Learned Video Compression [54.58691829087094]
本研究では,空間的およびチャネル的予測品質差の明確な識別を行うために,信頼度に基づく予測品質適応(PQA)モジュールを提案する。
また、参照品質適応(RQA)モジュールと関連する繰り返し学習戦略を提案し、様々な参照品質のための動的空間変化フィルタを提供する。
論文 参考訳(メタデータ) (2024-06-20T09:03:26Z) - Offline and Online Optical Flow Enhancement for Deep Video Compression [14.445058335559994]
モーション情報は、既存のディープビデオ圧縮ネットワークのほとんどで光学フローとして表現されている。
我々は現在最先端のディープビデオ圧縮方式であるDCVCの実験を行っている。
論文 参考訳(メタデータ) (2023-07-11T07:52:06Z) - CANF-VC: Conditional Augmented Normalizing Flows for Video Compression [81.41594331948843]
CANF-VCは、エンドツーエンドの学習ベースのビデオ圧縮システムである。
条件付き拡張正規化フロー(ANF)に基づく。
論文 参考訳(メタデータ) (2022-07-12T04:53:24Z) - Deep Learning-Based Intra Mode Derivation for Versatile Video Coding [65.96100964146062]
本稿では,Deep Learning based intra Mode Derivation (DLIMD) と呼ばれるインテリジェントイントラモード導出法を提案する。
DLIMDのアーキテクチャは、異なる量子化パラメータ設定と、非平方要素を含む可変符号化ブロックに適応するように開発されている。
提案手法は,Versatile Video Coding (VVC) テストモデルを用いて,Y, U, Vコンポーネントの平均ビットレートを2.28%, 1.74%, 2.18%削減できる。
論文 参考訳(メタデータ) (2022-04-08T13:23:59Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - A Coding Framework and Benchmark towards Low-Bitrate Video Understanding [63.05385140193666]
我々は,従来のコーデックとニューラルネットワーク(NN)の両方を活用する,従来型ニューラル混合符号化フレームワークを提案する。
このフレームワークは、動画の移動効率の良いセマンティック表現を確実に保持することで最適化される。
8つのデータセットに3つのダウンストリームタスクを備えた低ビットレートビデオ理解ベンチマークを構築し、このアプローチの顕著な優位性を実証した。
論文 参考訳(メタデータ) (2022-02-06T16:29:15Z) - ModeNet: Mode Selection Network For Learned Video Coding [1.6619384554007748]
Mod-eNetの関心は、Pフレームのコーディングタスクで研究され、予測値からフレームをコーディングする手法の設計に使用される。
学習画像圧縮2020(CLIC20)の課題に基づく評価において,ModeNetベースのシステムは魅力的なパフォーマンスを実現する
論文 参考訳(メタデータ) (2020-07-06T05:37:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。