論文の概要: Improving Deep Video Compression by Resolution-adaptive Flow Coding
- arxiv url: http://arxiv.org/abs/2009.05982v1
- Date: Sun, 13 Sep 2020 12:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 03:07:15.106071
- Title: Improving Deep Video Compression by Resolution-adaptive Flow Coding
- Title(参考訳): 解像度適応フロー符号化による深部映像圧縮の改善
- Authors: Zhihao Hu (1), Zhenghao Chen (2), Dong Xu (2), Guo Lu (3), Wanli
Ouyang (2), Shuhang Gu (2) ((1) College of Software, Beihang University,
China, (2) School of Electrical and Information Engineering, The University
of Sydney, Australia, (3) School of Computer Science & Technology, Beijing
Institute of Technology, China)
- Abstract要約: 本稿では,RaFC (Resolve-Adaptive Flow Coding) と呼ばれる新しいフレームワークを提案する。
複雑な動きパターンや単純な動きパターンをグローバルに処理するために、フレームレベルのRaFCフレームは、各ビデオフレームに対して最適なフローマップ解像度を自動的に決定する。
異なるタイプの動作パターンに局所的に対処するために、RaFCブロックと呼ばれるブロックレベルのスキームは、各局所的な動作特徴に対して最適な解像度を選択することもできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the learning based video compression approaches, it is an essential issue
to compress pixel-level optical flow maps by developing new motion vector (MV)
encoders. In this work, we propose a new framework called Resolution-adaptive
Flow Coding (RaFC) to effectively compress the flow maps globally and locally,
in which we use multi-resolution representations instead of single-resolution
representations for both the input flow maps and the output motion features of
the MV encoder. To handle complex or simple motion patterns globally, our
frame-level scheme RaFC-frame automatically decides the optimal flow map
resolution for each video frame. To cope different types of motion patterns
locally, our block-level scheme called RaFC-block can also select the optimal
resolution for each local block of motion features. In addition, the
rate-distortion criterion is applied to both RaFC-frame and RaFC-block and
select the optimal motion coding mode for effective flow coding. Comprehensive
experiments on four benchmark datasets HEVC, VTL, UVG and MCL-JCV clearly
demonstrate the effectiveness of our overall RaFC framework after combing
RaFC-frame and RaFC-block for video compression.
- Abstract(参考訳): 学習に基づくビデオ圧縮手法では,新しい動きベクトル(mv)エンコーダの開発により,画素レベルの光フローマップを圧縮することが不可欠である。
本研究では,入力フローマップとmvエンコーダの出力動作特性の両方に対して,単一解像度表現の代わりにマルチレゾリューション表現を用いたフローマップをグローバルかつ局所的に効果的に圧縮する,解像度適応フロー符号化(rafc)と呼ばれる新しいフレームワークを提案する。
複雑で単純な動きパターンをグローバルに扱うため、フレームレベルのスキームrafc-frameは各ビデオフレームの最適なフローマップの解像度を自動的に決定する。
異なる種類の動きパターンを局所的に扱うため、rafc-blockと呼ばれるブロックレベルのスキームは、各局所的な動き特徴の最適解像度を選択することもできる。
さらに、RaFCフレームとRaFCブロックの両方に適用し、効率的なフロー符号化のための最適な動き符号化モードを選択する。
HEVC, VTL, UVG, MCL-JCVの4つのベンチマークデータセットに対する総合的な実験により, ビデオ圧縮のためにRaFCフレームとRaFCブロックを併用したRaFCフレームワークの有効性が明らかとなった。
関連論文リスト
- Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - LVC-LGMC: Joint Local and Global Motion Compensation for Learned Video
Compression [13.768476094012787]
本稿では,映像符号化のための共同ローカル・グローバル・モーション補償モジュール(LGMC)を提案する。
グローバルなコンテキストを捉えるために,機能領域におけるクロスアテンションを用いて動き補償を行う。
LVC-LGMCは,ベースラインDCVC-TCMよりも高い速度歪み性能を有する。
論文 参考訳(メタデータ) (2024-02-01T15:43:43Z) - FFNeRV: Flow-Guided Frame-Wise Neural Representations for Videos [5.958701846880935]
ビデオ中のフレーム間の時間的冗長性を利用するために,フロー情報をフレームワイズ表現に組み込む新しい手法であるFFNeRVを提案する。
モデル圧縮技術により、FFNeRVは広く使われている標準ビデオコーデック(H.264とHEVC)より優れ、最先端のビデオ圧縮アルゴリズムと同等に動作する。
論文 参考訳(メタデータ) (2022-12-23T12:51:42Z) - Neighbor Correspondence Matching for Flow-based Video Frame Synthesis [90.14161060260012]
フローベースフレーム合成のための近傍対応マッチング(NCM)アルゴリズムを提案する。
NCMは現在のフレームに依存しない方法で実行され、各ピクセルの時空間近傍でマルチスケールの対応を確立する。
粗いスケールのモジュールは、近隣の対応を利用して大きな動きを捉えるように設計されている。
論文 参考訳(メタデータ) (2022-07-14T09:17:00Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - FDAN: Flow-guided Deformable Alignment Network for Video
Super-Resolution [12.844337773258678]
変形可能なコンボリューションに光流を統合するために,フロー誘導変形モジュール (FDM) を提案する。
FDANは、2つのベンチマークデータセットで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-05-12T13:18:36Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z) - End-To-End Trainable Video Super-Resolution Based on a New Mechanism for
Implicit Motion Estimation and Compensation [19.67999205691758]
ビデオの超解像度は、低解像度のビデオから高解像度のビデオを生成することを目指している。
本研究では,暗黙の動作推定と補償を行うための動的局所フィルタネットワークを提案する。
また,ResBlockとオートエンコーダ構造に基づくグローバルリファインメントネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-05T03:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。