論文の概要: Transcoded Video Restoration by Temporal Spatial Auxiliary Network
- arxiv url: http://arxiv.org/abs/2112.07948v1
- Date: Wed, 15 Dec 2021 08:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 22:39:39.941447
- Title: Transcoded Video Restoration by Temporal Spatial Auxiliary Network
- Title(参考訳): 時間空間補助ネットワークによるトランスコード映像復元
- Authors: Li Xu, Gang He, Jinjia Zhou, Jie Lei, Weiying Xie, Yunsong Li, Yu-Wing
Tai
- Abstract要約: 本稿では,映像復元のための時間空間補助ネットワーク(TSAN)を提案する。
実験の結果,提案手法の性能は従来の手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 64.63157339057912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In most video platforms, such as Youtube, and TikTok, the played videos
usually have undergone multiple video encodings such as hardware encoding by
recording devices, software encoding by video editing apps, and single/multiple
video transcoding by video application servers. Previous works in compressed
video restoration typically assume the compression artifacts are caused by
one-time encoding. Thus, the derived solution usually does not work very well
in practice. In this paper, we propose a new method, temporal spatial auxiliary
network (TSAN), for transcoded video restoration. Our method considers the
unique traits between video encoding and transcoding, and we consider the
initial shallow encoded videos as the intermediate labels to assist the network
to conduct self-supervised attention training. In addition, we employ adjacent
multi-frame information and propose the temporal deformable alignment and
pyramidal spatial fusion for transcoded video restoration. The experimental
results demonstrate that the performance of the proposed method is superior to
that of the previous techniques. The code is available at
https://github.com/icecherylXuli/TSAN.
- Abstract(参考訳): YoutubeやTikTokのようなほとんどのビデオプラットフォームでは、再生されたビデオは通常、デバイスによるハードウェアエンコーディング、ビデオ編集アプリによるソフトウェアエンコーディング、ビデオアプリケーションサーバによるシングル/マルチビデオトランスコーディングのような複数のビデオエンコーディングを行う。
圧縮ビデオ復元の以前の作品は、通常圧縮アーティファクトがワンタイムエンコーディングによって引き起こされると仮定している。
したがって、導出された解は通常、あまりうまく機能しない。
本稿では,トランスコードビデオ復元のための時間空間補助ネットワーク(tsan)を提案する。
本手法では,ビデオエンコーディングとトランスコーディングのユニークな特徴を考察し,最初の浅いエンコードビデオは,ネットワークが自己教師あり注意訓練を行うのを支援する中間ラベルであると考えている。
また,隣接したマルチフレーム情報を用いて,時間的変形可能なアライメントとピラミッド空間融合を提案する。
実験の結果,提案手法の性能は従来の手法よりも優れていることがわかった。
コードはhttps://github.com/icecherylxuli/tsanで入手できる。
関連論文リスト
- Fast Encoding and Decoding for Implicit Video Representation [88.43612845776265]
本稿では,高速エンコーディングのためのトランスフォーマーベースのハイパーネットワークであるNeRV-Encと,効率的なビデオローディングのための並列デコーダであるNeRV-Decを紹介する。
NeRV-Encは勾配ベースの最適化をなくすことで$mathbf104times$の素晴らしいスピードアップを実現している。
NeRV-Decはビデオデコーディングを単純化し、ロード速度が$mathbf11times$で従来のコーデックよりも高速である。
論文 参考訳(メタデータ) (2024-09-28T18:21:52Z) - Predictive Coding For Animation-Based Video Compression [13.161311799049978]
本稿では,画像アニメーションを予測器として用いる予測符号化手法を提案し,実際の対象フレームに対する残差を符号化する。
実験の結果,HEVCビデオ標準に比べて70%以上,VVCに比べて30%以上,有意な上昇を示した。
論文 参考訳(メタデータ) (2023-07-09T14:40:54Z) - Video Compression with Arbitrary Rescaling Network [8.489428003916622]
符号化前のビデオリサイズのためのレート誘導任意再スケーリングネットワーク(RARN)を提案する。
軽量RARN構造は、FHD(1080p)コンテンツをリアルタイム(91 FPS)で処理し、かなりのレート低下を得ることができる。
論文 参考訳(メタデータ) (2023-06-07T07:15:18Z) - Lightweight Hybrid Video Compression Framework Using Reference-Guided
Restoration Network [12.033330902093152]
本稿では、従来のビデオ(HEVC/VVC)、ロスレス画像、新しい修復ネットワークからなる軽量ハイブリッドビデオを提案する。
本手法はHEVCに適用しても,最上位の手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-21T04:42:44Z) - Compressed Vision for Efficient Video Understanding [83.97689018324732]
本稿では,2時間ビデオの処理が可能なハードウェアを用いて,時間長動画の研究を可能にするフレームワークを提案する。
私たちは、JPEGなどの標準的なビデオ圧縮をニューラル圧縮に置き換え、圧縮されたビデオを通常のビデオネットワークへの入力として直接フィードできることを示します。
論文 参考訳(メタデータ) (2022-10-06T15:35:49Z) - A Coding Framework and Benchmark towards Low-Bitrate Video Understanding [63.05385140193666]
我々は,従来のコーデックとニューラルネットワーク(NN)の両方を活用する,従来型ニューラル混合符号化フレームワークを提案する。
このフレームワークは、動画の移動効率の良いセマンティック表現を確実に保持することで最適化される。
8つのデータセットに3つのダウンストリームタスクを備えた低ビットレートビデオ理解ベンチマークを構築し、このアプローチの顕著な優位性を実証した。
論文 参考訳(メタデータ) (2022-02-06T16:29:15Z) - Deep Contextual Video Compression [20.301569390401102]
本稿では,予測符号化から条件付き符号化へのパラダイムシフトを実現するための,深い文脈ビデオ圧縮フレームワークを提案する。
提案手法は従来のSOTA(State-of-theart)ディープビデオ圧縮法よりも大幅に優れる。
論文 参考訳(メタデータ) (2021-09-30T12:14:24Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Content Adaptive and Error Propagation Aware Deep Video Compression [110.31693187153084]
本稿では,コンテンツ適応型・誤り伝搬対応型ビデオ圧縮システムを提案する。
本手法では, 複数フレームの圧縮性能を1フレームではなく複数フレームで考慮し, 共同学習手法を用いる。
従来の圧縮システムでは手作りのコーディングモードを使用する代わりに,オンラインエンコーダ更新方式をシステム内に設計する。
論文 参考訳(メタデータ) (2020-03-25T09:04:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。