論文の概要: Rethinking deinterlacing for early interlaced videos
- arxiv url: http://arxiv.org/abs/2011.13675v2
- Date: Sun, 12 Sep 2021 13:15:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:38:52.653012
- Title: Rethinking deinterlacing for early interlaced videos
- Title(参考訳): 初期のインターレースビデオのデインターレース再考
- Authors: Yang Zhao, Wei Jia, Ronggang Wang
- Abstract要約: 本稿では,従来のデインターレース戦略を動機として,特定のデインターレースネットワーク(DIN)を提案する。
提案したDINは,2つの段階,すなわち分割フィールドの協調的な垂直ステージ,およびゴーストアーティファクトの知覚と除去に応用されるマージステージから構成される。
実験結果から, 初期のインターレース映像において, 複雑なアーティファクトを効果的に除去できることが示唆された。
- 参考スコア(独自算出の注目度): 28.100416982150207
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rapid development of image restoration techniques, high-definition
reconstruction of early videos has achieved impressive results. However, there
are few studies about the interlacing artifacts that often appear in early
videos and significantly affect visual perception. Traditional deinterlacing
approaches are mainly focused on early interlacing scanning systems and thus
cannot handle the complex and complicated artifacts in real-world early
interlaced videos. Hence, this paper proposes a specific deinterlacing network
(DIN), which is motivated by the traditional deinterlacing strategy. The
proposed DIN consists of two stages, i.e., a cooperative vertical interpolation
stage for split fields, and a merging stage that is applied to perceive
movements and remove ghost artifacts. Experimental results demonstrate that the
proposed method can effectively remove complex artifacts in early interlaced
videos.
- Abstract(参考訳): 画像復元技術の急速な発展により,早期映像の高精細化が目覚ましい成果を上げている。
しかし、初期のビデオにしばしば登場し、視覚知覚に著しく影響を及ぼす、インターレースアーティファクトに関する研究はほとんどない。
従来のデインターレース方式は主に初期のインターレーススキャンシステムに焦点を当てており、現実のアーリーインターレースビデオでは複雑で複雑なアーティファクトを処理できない。
そこで本稿では,従来のデインターレース戦略を動機とした特定デインターレースネットワーク(DIN)を提案する。
提案したDINは,2つの段階,すなわち,分割フィールドの協調的垂直補間段階,およびゴーストアーティファクトの知覚と除去に応用されるマージ段階から構成される。
実験により, 早期インターレース映像の複雑なアーティファクトを効果的に除去できることを示す。
関連論文リスト
- ToonCrafter: Generative Cartoon Interpolation [63.52353451649143]
ToonCrafterは、従来の文通ベースの漫画映像を超越した新しいアプローチである。
ToonCrafterは、生成漫画にライブアクションビデオの動きを適用する際に直面する課題を効果的に解決する。
実験結果から,提案手法は視覚的に説得力があり,より自然に作用するだけでなく,非閉塞性も効果的に扱えることが示された。
論文 参考訳(メタデータ) (2024-05-28T07:58:33Z) - EfficientSCI: Densely Connected Network with Space-time Factorization
for Large-scale Video Snapshot Compressive Imaging [6.8372546605486555]
圧縮率の高いUHDカラービデオは,PSNRが32dB以上である単一エンドツーエンドのディープラーニングモデルを用いて,スナップショット2次元計測から再構成可能であることを示す。
提案手法は,従来のSOTAアルゴリズムよりも性能が優れ,リアルタイム性能が向上した。
論文 参考訳(メタデータ) (2023-05-17T07:28:46Z) - You Can Ground Earlier than See: An Effective and Efficient Pipeline for
Temporal Sentence Grounding in Compressed Videos [56.676761067861236]
ビデオがトリミングされていない場合、時間的文のグラウンド化は、文問合せに従って目的のモーメントを意味的に見つけることを目的としている。
それまでの優れた作品は、かなり成功したが、それらはデコードされたフレームから抽出されたハイレベルな視覚的特徴にのみ焦点を当てている。
本稿では,圧縮された映像を直接視覚入力として利用する,圧縮された領域のTSGを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:53:27Z) - Scene Matters: Model-based Deep Video Compression [13.329074811293292]
本稿では,シーンを映像シーケンスの基本単位とみなすモデルベースビデオ圧縮(MVC)フレームワークを提案する。
提案したMVCは,1シーンでビデオシーケンス全体の新しい強度変化を直接モデル化し,冗長性を低減せず,非冗長表現を求める。
提案手法は,最新のビデオ標準H.266に比べて最大20%の削減を実現し,既存のビデオ符号化方式よりもデコーディングの効率がよい。
論文 参考訳(メタデータ) (2023-03-08T13:15:19Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Unfolding a blurred image [36.519356428362286]
我々は、教師なしの方法でシャープビデオから動きの表現を学習する。
次に、ビデオ再構成の代用タスクを実行する畳み込みリカレントビデオオートエンコーダネットワークを訓練する。
ぼやけた画像のためのモーションエンコーダのガイドトレーニングに使用される。
このネットワークは、ぼやけた画像から埋め込み動作情報を抽出し、トレーニングされたリカレントビデオデコーダとともにシャープなビデオを生成する。
論文 参考訳(メタデータ) (2022-01-28T09:39:55Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Multi-frame Joint Enhancement for Early Interlaced Videos [33.32057768912971]
初期のインターレースビデオは、通常複数のインターレースと複雑な圧縮アーティファクトを含んでいる。
本稿では,初期のインターレースビデオのためのマルチフレーム・デインターレースネットワーク・ジョイント・エンハンスメント・ネットワークを提案する。
提案手法は,複数フィールドの時間的冗長性を利用して,映像の複雑なアーティファクトを効果的に除去することができる。
論文 参考訳(メタデータ) (2021-09-29T02:37:15Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。