論文の概要: Video Deblurring by Sharpness Prior Detection and Edge Information
- arxiv url: http://arxiv.org/abs/2501.12246v1
- Date: Tue, 21 Jan 2025 16:07:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:22:12.384997
- Title: Video Deblurring by Sharpness Prior Detection and Edge Information
- Title(参考訳): シャープネス事前検出とエッジ情報による映像の劣化
- Authors: Yang Tian, Fabio Brau, Giulio Rossolini, Giorgio Buttazzo, Hao Meng,
- Abstract要約: 自動走行、顔認識、およびセキュリティ監視には、ビデオの劣化が不可欠である。
近年の手法では,映像シーケンス内のシャープフレームの検出を利用してデブロアリングを向上している。
この研究はGoPro Random Sharp(GoProRS)という新しいデータセットを導入し、シーケンス内のシャープフレームの頻度をカスタマイズできる。
SPEINetと呼ばれる、シャープなフレーム特徴をぼやけたフレーム再構成に統合する新しいビデオデブロアリングモデルを提供する。
- 参考スコア(独自算出の注目度): 13.02974961130789
- License:
- Abstract: Video deblurring is essential task for autonomous driving, facial recognition, and security surveillance. Traditional methods directly estimate motion blur kernels, often introducing artifacts and leading to poor results. Recent approaches utilize the detection of sharp frames within video sequences to enhance deblurring. However, existing datasets rely on fixed number of sharp frames, which may be too restrictive for some applications and may introduce a bias during model training. To address these limitations and enhance domain adaptability, this work first introduces GoPro Random Sharp (GoProRS), a new dataset where the the frequency of sharp frames within the sequence is customizable, allowing more diverse training and testing scenarios. Furthermore, it presents a novel video deblurring model, called SPEINet, that integrates sharp frame features into blurry frame reconstruction through an attention-based encoder-decoder architecture, a lightweight yet robust sharp frame detection and an edge extraction phase. Extensive experimental results demonstrate that SPEINet outperforms state-of-the-art methods across multiple datasets, achieving an average of +3.2% PSNR improvement over recent techniques. Given such promising results, we believe that both the proposed model and dataset pave the way for future advancements in video deblurring based on the detection of sharp frames.
- Abstract(参考訳): 自動走行、顔認識、およびセキュリティ監視には、ビデオの劣化が不可欠である。
従来の手法では、運動のぼやけたカーネルを直接推定し、しばしばアーティファクトを導入し、結果の低さにつながった。
近年の手法では,映像シーケンス内のシャープフレームの検出を利用してデブロアリングを向上している。
しかし、既存のデータセットは、一定の数のシャープフレームに依存しており、一部のアプリケーションには制約がありすぎ、モデルトレーニング中にバイアスが発生する可能性がある。
これらの制限に対処し、ドメイン適応性を高めるために、この研究はまずGoPro Random Sharp(GoProRS)という、シーケンス内のシャープフレームの頻度をカスタマイズ可能な新しいデータセットを導入し、より多様なトレーニングとテストシナリオを可能にした。
さらに,注目型エンコーダデコーダアーキテクチャ,軽量かつ堅牢なシャープフレーム検出,エッジ抽出フェーズを通じて,シャープフレームの特徴をぼやけたフレーム再構成に統合する,SPEINetと呼ばれる新しいビデオデブロアリングモデルを提案する。
大規模な実験の結果、SPEINetは複数のデータセットにまたがる最先端の手法よりも優れており、最近の技術よりも平均+3.2%PSNRの改善が達成されている。
このような有望な結果から,提案したモデルとデータセットの両方が,シャープフレームの検出に基づく映像劣化の今後の進展の道を開くと信じている。
関連論文リスト
- Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - SSVOD: Semi-Supervised Video Object Detection with Sparse Annotations [12.139451002212063]
SSVODはビデオのモーションダイナミクスを利用して、スパースアノテーション付き大規模未ラベルフレームを利用する。
提案手法は,ImageNet-VID, Epic-KITCHENS, YouTube-VISの既存手法に比べて,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-09-04T06:41:33Z) - E-VFIA : Event-Based Video Frame Interpolation with Attention [8.93294761619288]
軽量カーネルベース手法として,注目度の高いイベントベースビデオフレーム(E-VFIA)を提案する。
E-VFIAは、イベント情報を変形可能な畳み込みによって標準的なビデオフレームと融合し、高品質な補間フレームを生成する。
提案手法は、時間分解能の高いイベントを表現し、イベントベース情報をよりよくエンコードするためにマルチヘッド自己保持機構を使用する。
論文 参考訳(メタデータ) (2022-09-19T21:40:32Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Frame-rate Up-conversion Detection Based on Convolutional Neural Network
for Learning Spatiotemporal Features [7.895528973776606]
本稿では、FRUCによる法医学的特徴をエンドツーエンドに学習するフレームレート変換検出ネットワーク(FCDNet)を提案する。
FCDNetは連続するフレームのスタックを入力として使用し、ネットワークブロックを使ってアーティファクトを効果的に学習して特徴を学習する。
論文 参考訳(メタデータ) (2021-03-25T08:47:46Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。