論文の概要: Multi-Field De-interlacing using Deformable Convolution Residual Blocks
and Self-Attention
- arxiv url: http://arxiv.org/abs/2209.10192v1
- Date: Wed, 21 Sep 2022 08:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:01:41.625379
- Title: Multi-Field De-interlacing using Deformable Convolution Residual Blocks
and Self-Attention
- Title(参考訳): 変形可能な畳み込み残差ブロックと自己付着を用いたマルチフィールドデインターレース
- Authors: Ronglei Ji and A. Murat Tekalp
- Abstract要約: 劣化モデルが知られ, 固定されているため, 合成データからの教師あり学習には, 脱インターレースが適している。
本稿では, マルチフィールドフルフレームレートデインターレースネットワークを提案し, 最先端の超解像手法をデインターレースタスクに適用する。
- 参考スコア(独自算出の注目度): 10.329264495669028
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although deep learning has made significant impact on image/video restoration
and super-resolution, learned deinterlacing has so far received less attention
in academia or industry. This is despite deinterlacing is well-suited for
supervised learning from synthetic data since the degradation model is known
and fixed. In this paper, we propose a novel multi-field full frame-rate
deinterlacing network, which adapts the state-of-the-art superresolution
approaches to the deinterlacing task. Our model aligns features from adjacent
fields to a reference field (to be deinterlaced) using both deformable
convolution residual blocks and self attention. Our extensive experimental
results demonstrate that the proposed method provides state-of-the-art
deinterlacing results in terms of both numerical and perceptual performance. At
the time of writing, our model ranks first in the Full FrameRate LeaderBoard at
https://videoprocessing.ai/benchmarks/deinterlacer.html
- Abstract(参考訳): 深層学習は画像/映像の復元と超高解像度化に大きな影響を与えてきたが、学界や業界では学界の関心が薄れている。
これは, 劣化モデルが知られ, 固定されているため, 合成データからの教師あり学習に適しているにもかかわらずである。
本稿では,最先端のスーパーレゾリューション手法をデインターレースタスクに適用した,マルチフィールドフルフレームレートデインターレースネットワークを提案する。
本モデルは,変形可能な畳み込み残差ブロックと自己注意の両方を用いて,隣接フィールドから参照フィールドへの特徴を整合させる。
提案手法は,数値的および知覚的性能の両面で,最先端のデインターレース結果を提供することを示す。
この記事執筆時点で、私たちのモデルは、https://videoprocessing.ai/benchmarks/deinterlacer.comでFull FrameRate LeaderBoardにランクインしています。
関連論文リスト
- Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - TVTSv2: Learning Out-of-the-box Spatiotemporal Visual Representations at
Scale [59.01246141215051]
言語指導の観点から,その劣化要因を分析した。
本稿では,テキストエンコーダの一般化能力を維持するために,教師なし事前学習戦略を提案する。
最大10億のパラメータを持つTVTSv2と呼ばれる一連のモデルを作成します。
論文 参考訳(メタデータ) (2023-05-23T15:44:56Z) - NSNet: Non-saliency Suppression Sampler for Efficient Video Recognition [89.84188594758588]
非定常フレームの応答を抑制するために, NSNet(Non-Sliency Suppression Network)を提案する。
NSNetは最先端の精度効率トレードオフを実現し、最先端の手法よりもはるかに高速な2.44.3xの実用的な推論速度を示す。
論文 参考訳(メタデータ) (2022-07-21T09:41:22Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - Efficient Video Segmentation Models with Per-frame Inference [117.97423110566963]
推論のオーバーヘッドを導入することなく、時間的一貫性を改善することに注力する。
本稿では,時間的一貫性の喪失やオンライン/オフラインの知識蒸留手法など,ビデオシーケンスから学ぶためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2022-02-24T23:51:36Z) - FILM: Frame Interpolation for Large Motion [20.04001872133824]
本稿では,2つの入力画像から複数の中間フレームを合成するフレームアルゴリズムを提案する。
提案手法は,Xiph大運動ベンチマークの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-02-10T08:48:18Z) - ALANET: Adaptive Latent Attention Network forJoint Video Deblurring and
Interpolation [38.52446103418748]
シャープな高フレームレート映像を合成する新しいアーキテクチャであるAdaptive Latent Attention Network (ALANET)を導入する。
我々は,各フレームに最適化された表現を生成するために,潜在空間内の連続するフレーム間で自己アテンションと相互アテンションのモジュールを組み合わせる。
本手法は, より困難な問題に取り組みながら, 様々な最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2020-08-31T21:11:53Z) - Efficient Semantic Video Segmentation with Per-frame Inference [117.97423110566963]
本研究では,フレームごとの効率的なセマンティックビデオセグメンテーションを推論プロセス中に処理する。
そこで我々は,コンパクトモデルと大規模モデルのパフォーマンスギャップを狭めるために,新しい知識蒸留法を設計した。
論文 参考訳(メタデータ) (2020-02-26T12:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。