論文の概要: Multi-frame Joint Enhancement for Early Interlaced Videos
- arxiv url: http://arxiv.org/abs/2109.14151v1
- Date: Wed, 29 Sep 2021 02:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 14:41:46.653358
- Title: Multi-frame Joint Enhancement for Early Interlaced Videos
- Title(参考訳): 早期インターレース映像の多フレーム関節強化
- Authors: Yang Zhao, Yanbo Ma, Yuan Chen, Wei Jia, Ronggang Wang, Xiaoping Liu
- Abstract要約: 初期のインターレースビデオは、通常複数のインターレースと複雑な圧縮アーティファクトを含んでいる。
本稿では,初期のインターレースビデオのためのマルチフレーム・デインターレースネットワーク・ジョイント・エンハンスメント・ネットワークを提案する。
提案手法は,複数フィールドの時間的冗長性を利用して,映像の複雑なアーティファクトを効果的に除去することができる。
- 参考スコア(独自算出の注目度): 33.32057768912971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early interlaced videos usually contain multiple and interlacing and complex
compression artifacts, which significantly reduce the visual quality. Although
the high-definition reconstruction technology for early videos has made great
progress in recent years, related research on deinterlacing is still lacking.
Traditional methods mainly focus on simple interlacing mechanism, and cannot
deal with the complex artifacts in real-world early videos. Recent interlaced
video reconstruction deep deinterlacing models only focus on single frame,
while neglecting important temporal information. Therefore, this paper proposes
a multiframe deinterlacing network joint enhancement network for early
interlaced videos that consists of three modules, i.e., spatial vertical
interpolation module, temporal alignment and fusion module, and final
refinement module. The proposed method can effectively remove the complex
artifacts in early videos by using temporal redundancy of multi-fields.
Experimental results demonstrate that the proposed method can recover high
quality results for both synthetic dataset and real-world early interlaced
videos.
- Abstract(参考訳): 初期のインターレースビデオは、通常、複数のインターレースと複雑な圧縮アーティファクトを含んでいるため、視覚品質が著しく低下する。
近年, 早期ビデオの高精細化技術は大きな進歩を遂げているが, 補間に関する関連研究はいまだに欠落している。
従来の手法は主に単純なインターレース機構に焦点を当てており、実際のアーリービデオでは複雑なアーティファクトを扱うことができない。
最近のinterlaced video reconstruction deep deinterlacing modelsは、重要な時間的情報を無視しながら、単一のフレームのみに焦点を当てている。
そこで本稿では,空間的垂直補間モジュール,時間的アライメントと融合モジュール,最終精細モジュールの3つのモジュールからなる,早期インターレースビデオのためのマルチフレーム・デインターレースネットワーク・ジョイント・エンハンスメント・ネットワークを提案する。
提案手法は,マルチフィールドの時間的冗長性を用いて,初期映像中の複雑なアーティファクトを効果的に除去する。
実験の結果,提案手法は合成データセットと実世界の早期インターレースビデオの両方に対して高品質な結果を得ることができることがわかった。
関連論文リスト
- DiffIR2VR-Zero: Zero-Shot Video Restoration with Diffusion-based Image Restoration Models [9.145545884814327]
本稿では,事前学習画像復元拡散モデルを用いたゼロショット映像復元手法を提案する。
本手法は,ゼロショット映像復元において最高の性能を発揮することを示す。
本手法は任意の2次元復元拡散モデルで動作し,広範に再トレーニングを行うことなく,映像強調作業のための汎用的で強力なツールを提供する。
論文 参考訳(メタデータ) (2024-07-01T17:59:12Z) - VidToMe: Video Token Merging for Zero-Shot Video Editing [100.79999871424931]
本稿では,フレーム間で自己注意トークンをマージすることで,生成ビデオの時間的一貫性を高める新しい手法を提案する。
本手法は時間的コヒーレンスを改善し,自己アテンション計算におけるメモリ消費を削減する。
論文 参考訳(メタデータ) (2023-12-17T09:05:56Z) - Video Dehazing via a Multi-Range Temporal Alignment Network with
Physical Prior [117.6741444489174]
ビデオのデハジングは、高い可視性とコントラストでヘイズフリーフレームを回復することを目的としている。
本稿では,物理ヘイズ先行を探索し,時間的情報を集約する新しい枠組みを提案する。
大規模な屋外ビデオデハージングベンチマークデータセットを構築した。
論文 参考訳(メタデータ) (2023-03-17T03:44:17Z) - You Can Ground Earlier than See: An Effective and Efficient Pipeline for
Temporal Sentence Grounding in Compressed Videos [56.676761067861236]
ビデオがトリミングされていない場合、時間的文のグラウンド化は、文問合せに従って目的のモーメントを意味的に見つけることを目的としている。
それまでの優れた作品は、かなり成功したが、それらはデコードされたフレームから抽出されたハイレベルな視覚的特徴にのみ焦点を当てている。
本稿では,圧縮された映像を直接視覚入力として利用する,圧縮された領域のTSGを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:53:27Z) - A Simple Baseline for Video Restoration with Grouped Spatial-temporal
Shift [36.71578909392314]
本研究では,ビデオ復元のための簡易かつ効果的なフレームワークを提案する。
我々のアプローチは、軽量で簡単な手法であるグループ化された時空間シフトに基づいている。
我々のフレームワークは従来の最先端手法よりも優れており、計算コストの4分の1以下である。
論文 参考訳(メタデータ) (2022-06-22T02:16:47Z) - Video Demoireing with Relation-Based Temporal Consistency [68.20281109859998]
カラー歪みのように見えるモアレパターンは、デジタルカメラでスクリーンを撮影する際に、画像と映像の画質を著しく劣化させる。
我々は、このような望ましくないモアレパターンをビデオで除去する方法を研究している。
論文 参考訳(メタデータ) (2022-04-06T17:45:38Z) - VRT: A Video Restoration Transformer [126.79589717404863]
ビデオ復元(例:ビデオ超解像度)は、高品質のフレームを低品質のフレームから復元することを目的としている。
並列フレーム予測と長距離時間依存性モデリング機能を備えたビデオ再生変換器(VRT)を提案する。
論文 参考訳(メタデータ) (2022-01-28T17:54:43Z) - Attention-guided Temporal Coherent Video Object Matting [78.82835351423383]
本稿では,時間的コヒーレントなマッチング結果が得られる深層学習に基づくオブジェクトマッチング手法を提案する。
中心となるコンポーネントは、画像マッチングネットワークの強度を最大化するアテンションベースの時間アグリゲーションモジュールである。
本稿では,最先端のビデオオブジェクトセグメンテーションネットワークを微調整することで,トリマップ生成問題を効果的に解決する方法を示す。
論文 参考訳(メタデータ) (2021-05-24T17:34:57Z) - Rethinking deinterlacing for early interlaced videos [28.100416982150207]
本稿では,従来のデインターレース戦略を動機として,特定のデインターレースネットワーク(DIN)を提案する。
提案したDINは,2つの段階,すなわち分割フィールドの協調的な垂直ステージ,およびゴーストアーティファクトの知覚と除去に応用されるマージステージから構成される。
実験結果から, 初期のインターレース映像において, 複雑なアーティファクトを効果的に除去できることが示唆された。
論文 参考訳(メタデータ) (2020-11-27T11:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。