論文の概要: Revitalizing Legacy Video Content: Deinterlacing with Bidirectional
Information Propagation
- arxiv url: http://arxiv.org/abs/2310.19535v2
- Date: Tue, 5 Dec 2023 15:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 19:09:36.732025
- Title: Revitalizing Legacy Video Content: Deinterlacing with Bidirectional
Information Propagation
- Title(参考訳): レガシビデオコンテンツの再生:双方向情報伝達によるデインターレース
- Authors: Zhaowei Gao, Mingyang Song, Christopher Schroers, Yang Zhang
- Abstract要約: 本稿では,アニメーションとライブアクションの映像コンテンツを挿入するディープラーニングに基づく手法を提案する。
提案手法は,複数スケールにわたる双方向情報伝搬を支援する。
提案手法は,複数フィールドを同時に処理し,フレーム単位の時間を短縮し,リアルタイム処理を可能にする。
- 参考スコア(独自算出の注目度): 14.340811078427553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to old CRT display technology and limited transmission bandwidth, early
film and TV broadcasts commonly used interlaced scanning. This meant each field
contained only half of the information. Since modern displays require full
frames, this has spurred research into deinterlacing, i.e. restoring the
missing information in legacy video content. In this paper, we present a
deep-learning-based method for deinterlacing animated and live-action content.
Our proposed method supports bidirectional spatio-temporal information
propagation across multiple scales to leverage information in both space and
time. More specifically, we design a Flow-guided Refinement Block (FRB) which
performs feature refinement including alignment, fusion, and rectification.
Additionally, our method can process multiple fields simultaneously, reducing
per-frame processing time, and potentially enabling real-time processing. Our
experimental results demonstrate that our proposed method achieves superior
performance compared to existing methods.
- Abstract(参考訳): 古いcrt表示技術と限られた伝送帯域のため、初期のフィルムやテレビ放送ではインターレース走査が一般的であった。
これは各フィールドが情報の半分しか含まないことを意味する。
現代のディスプレイはフルフレームを必要とするため、これはデインターレースの研究、すなわちレガシービデオコンテンツの欠落した情報を復元するきっかけとなった。
本稿では,アニメーションコンテンツとライブアクションコンテンツを分離する深層学習手法を提案する。
提案手法は,空間と時間の両方で情報を活用するために,複数スケールにわたる双方向時空間情報伝搬を支援する。
より具体的には,アライメント,融合,整流などの機能改良を行うフローガイドリファインメントブロック(frb)を設計する。
さらに,複数のフィールドを同時に処理し,フレーム単位の処理時間を短縮し,リアルタイム処理を可能にする。
実験の結果,提案手法は既存手法と比較して優れた性能を示した。
関連論文リスト
- CMTA: Cross-Modal Temporal Alignment for Event-guided Video Deblurring [44.30048301161034]
ビデオデブロアリングは、隣接するビデオフレームから情報を集めることで、モーションレッドビデオの復元結果の品質を高めることを目的としている。
1) フレーム内機能拡張は, 単一のぼやけたフレームの露出時間内で動作し, 2) フレーム間時間的特徴アライメントは, 重要な長期時間情報を対象のフレームに収集する。
提案手法は, 合成および実世界のデブロアリングデータセットを用いた広範囲な実験により, 最先端のフレームベースおよびイベントベース動作デブロアリング法より優れていることを示す。
論文 参考訳(メタデータ) (2024-08-27T10:09:17Z) - COVE: Unleashing the Diffusion Feature Correspondence for Consistent Video Editing [57.76170824395532]
ビデオ編集は新たな課題であり、現在のほとんどの手法では、ソースビデオを編集するために、事前訓練されたテキスト・トゥ・イメージ(T2I)拡散モデルを採用している。
我々は,高品質で一貫したビデオ編集を実現するために,COVE(Cor correspondingence-guided Video Editing)を提案する。
COVEは、追加のトレーニングや最適化を必要とせずに、事前訓練されたT2I拡散モデルにシームレスに統合することができる。
論文 参考訳(メタデータ) (2024-06-13T06:27:13Z) - Blur-aware Spatio-temporal Sparse Transformer for Video Deblurring [14.839956958725883]
本稿では、browbfBSSTNet, textbfBlur-aware textbfStext-temporal textbfTransformer Networkを提案する。
提案したBSSTNetは、GoProやDVDのデータセットで最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-06-11T17:59:56Z) - Collaborative Feedback Discriminative Propagation for Video Super-Resolution [66.61201445650323]
ビデオ超解像法(VSR)の主な成功は、主に空間情報と時間情報を探索することに由来する。
不正確なアライメントは通常、重要なアーティファクトを備えたアライメント機能につながる。
伝搬モジュールは同じタイムステップ機能のみを前方または後方に伝播する。
論文 参考訳(メタデータ) (2024-04-06T22:08:20Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - Deep Recurrent Neural Network with Multi-scale Bi-directional
Propagation for Video Deblurring [36.94523101375519]
本稿では,RNN-MBP(Multiscale Bi-directional Propagation)を用いたディープリカレントニューラルネットワークを提案する。
提案したアルゴリズムと既存の最先端の手法を現実世界のぼやけたシーンでよりよく評価するために、リアルワールドのぼやけたビデオデータセットも作成する。
提案アルゴリズムは3つの典型的なベンチマークにおける最先端の手法に対して良好に動作する。
論文 参考訳(メタデータ) (2021-12-09T11:02:56Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Spatiotemporal Inconsistency Learning for DeepFake Video Detection [51.747219106855624]
本稿では,水平方向と垂直方向の両方で隣接するフレーム間の時間差を利用して,TIMにおける新しい時間的モデリングパラダイムを提案する。
ISMは、SIMからの空間情報とTIMからの時間情報とを同時に利用し、より包括的な時空間表現を確立する。
論文 参考訳(メタデータ) (2021-09-04T13:05:37Z) - Coarse-Fine Networks for Temporal Activity Detection in Videos [45.03545172714305]
Co-Fine Networks」は、時間分解の異なる抽象化の恩恵を受け、長期的な動きのためのより良いビデオ表現を学ぶ2流アーキテクチャです。
提案手法は,計算量とメモリフットプリントを大幅に削減して,公開データセットにおける動作検出の最先端を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-03-01T20:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。