論文の概要: Video Deblurring with Deconvolution and Aggregation Networks
- arxiv url: http://arxiv.org/abs/2506.04054v1
- Date: Wed, 04 Jun 2025 15:19:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.413167
- Title: Video Deblurring with Deconvolution and Aggregation Networks
- Title(参考訳): デコンボリューションとアグリゲーションネットワークによるビデオのデブロリング
- Authors: Giyong Choi, HyunWook Park,
- Abstract要約: ビデオデブロアリングのためのデコンボリューション・アグリゲーションネットワーク(DAN)を提案する。
DANでは、3つのサブネットワークを通じてデコンボリューションとアグリゲーションの戦略が達成される。
3つのサブネットワークの適切な組み合わせは、隣のフレームを好適に使用することにより、映像劣化に対して良好な性能を得ることができる。
- 参考スコア(独自算出の注目度): 1.6114012813668932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In contrast to single-image deblurring, video deblurring has the advantage that neighbor frames can be utilized to deblur a target frame. However, existing video deblurring algorithms often fail to properly employ the neighbor frames, resulting in sub-optimal performance. In this paper, we propose a deconvolution and aggregation network (DAN) for video deblurring that utilizes the information of neighbor frames well. In DAN, both deconvolution and aggregation strategies are achieved through three sub-networks: the preprocessing network (PPN) and the alignment-based deconvolution network (ABDN) for the deconvolution scheme; the frame aggregation network (FAN) for the aggregation scheme. In the deconvolution part, blurry inputs are first preprocessed by the PPN with non-local operations. Then, the output frames from the PPN are deblurred by the ABDN based on the frame alignment. In the FAN, these deblurred frames from the deconvolution part are combined into a latent frame according to reliability maps which infer pixel-wise sharpness. The proper combination of three sub-networks can achieve favorable performance on video deblurring by using the neighbor frames suitably. In experiments, the proposed DAN was demonstrated to be superior to existing state-of-the-art methods through both quantitative and qualitative evaluations on the public datasets.
- Abstract(参考訳): シングルイメージのデブロアリングとは対照的に、ビデオのデブロアリングは、隣接するフレームを利用してターゲットフレームをデブロアすることができるという利点がある。
しかし、既存のビデオデブロアリングアルゴリズムは、しばしば隣接するフレームを適切に使用できず、結果として準最適性能が得られる。
本稿では,隣接するフレームの情報をよく活用するビデオデブロアリングのためのデコンボリューション・アグリゲーション・ネットワーク(DAN)を提案する。
DANでは、デコンボリューションとアグリゲーションの戦略は、プリプロセッシングネットワーク(PPN)とアライメントベースのデコンボリューションネットワーク(ABDN)の3つのサブネットワーク、アグリゲーションスキームのフレームアグリゲーションネットワーク(FAN)によって達成される。
デコンボリューション部では、非局所操作のPPNにより、ぼやけた入力が第1に前処理される。
そして、このフレームアライメントに基づいて、PPNからの出力フレームをABDNで分解する。
FANでは、このデコンボリューション部からの退色フレームを、画素ワイドシャープネスを推測する信頼性マップに従って遅延フレームに結合する。
3つのサブネットワークの適切な組み合わせは、隣のフレームを好適に使用することにより、映像劣化に対して良好な性能を得ることができる。
実験では、提案したDANは、公開データセットの定量的および定性的な評価により、既存の最先端手法よりも優れていることを示した。
関連論文リスト
- CoordFlow: Coordinate Flow for Pixel-wise Neural Video Representation [11.364753833652182]
Implicit Neural Representation (INR)は、従来の変換ベースの手法に代わる有望な代替手段である。
ビデオ圧縮のための新しいピクセルワイドINRであるCoordFlowを紹介する。
他のピクセルワイドINRと比較すると、最先端のフレームワイド技術と比較すると、オンパー性能が向上する。
論文 参考訳(メタデータ) (2025-01-01T22:58:06Z) - Joint Reference Frame Synthesis and Post Filter Enhancement for Versatile Video Coding [53.703894799335735]
本稿では, Versatile Video Coding (VVC) のためのジョイントリファレンスフレーム合成 (RFS) と後処理フィルタ拡張 (PFE) を提案する。
RFS と PFE は Space-Time Enhancement Network (STENet) を使用しており、2つの入力フレームをアーティファクトで受信し、2つの拡張フレームを圧縮されたアーティファクトと中間合成フレームで生成する。
推論の複雑さを低減するために,STENetの単一実行によって達成されるFSとPFE(JISE)の合同推論を提案する。
論文 参考訳(メタデータ) (2024-04-28T03:11:44Z) - Aggregating Nearest Sharp Features via Hybrid Transformers for Video Deblurring [70.06559269075352]
本稿では,隣接するフレームと既存のシャープフレームの両方を特徴集約のためにハイブリッドトランスフォーマーを用いて活用するビデオデブロアリング手法を提案する。
検出されたシャープフレームから最も近いシャープ特徴を集約するために,マルチスケールマッチング機能を備えたグローバルトランスを利用する。
提案手法は,定量的な計測値と視覚的品質の観点から,最先端のビデオデブロアリング法,およびイベント駆動ビデオデブロアリング法より優れる。
論文 参考訳(メタデータ) (2023-09-13T16:12:11Z) - Cross-Attention Transformer for Video Interpolation [3.5317804902980527]
TAIN (Transformers and Attention for video Interpolation) は、2つの連続した画像フレームが配置された中間フレームを補間することを目的としている。
最初に、予測フレームと類似した外観の入力画像特徴をグローバルに集約するために、CS(Cross-Similarity)と呼ばれる新しいビジュアルトランスフォーマーモジュールを提示する。
CS特徴の排他性を考慮し,一方のフレームから他方のフレーム上のCS特徴に焦点を合わせるためのイメージアテンション(IA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-08T21:38:54Z) - Deep Recurrent Neural Network with Multi-scale Bi-directional
Propagation for Video Deblurring [36.94523101375519]
本稿では,RNN-MBP(Multiscale Bi-directional Propagation)を用いたディープリカレントニューラルネットワークを提案する。
提案したアルゴリズムと既存の最先端の手法を現実世界のぼやけたシーンでよりよく評価するために、リアルワールドのぼやけたビデオデータセットも作成する。
提案アルゴリズムは3つの典型的なベンチマークにおける最先端の手法に対して良好に動作する。
論文 参考訳(メタデータ) (2021-12-09T11:02:56Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Progressive Deep Video Dehazing without Explicit Alignment Estimation [2.766648389933265]
ビデオデハジングのためのプログレッシブアライメントと復元法を提案する。
このアライメントプロセスは、光フロー推定を使わずに、連続した隣接するフレームをステージごとにアライメントする。
復元プロセスはアライメントプロセス下で実施されるだけでなく、改良ネットワークを使用してネットワーク全体の脱ハージング性能を向上させる。
論文 参考訳(メタデータ) (2021-07-16T11:57:40Z) - EA-Net: Edge-Aware Network for Flow-based Video Frame Interpolation [101.75999290175412]
補間フレーム内のエッジを保存することにより,画像のぼかしを低減し,オブジェクトの明確な形状を得る。
提案するエッジアウェアネットワーク(eanet)は、エッジ情報をフレームタスクに統合する。
フローマップの推定において,フレームエッジを強調する3つのエッジアウェア機構が開発されている。
論文 参考訳(メタデータ) (2021-05-17T08:44:34Z) - Frame-rate Up-conversion Detection Based on Convolutional Neural Network
for Learning Spatiotemporal Features [7.895528973776606]
本稿では、FRUCによる法医学的特徴をエンドツーエンドに学習するフレームレート変換検出ネットワーク(FCDNet)を提案する。
FCDNetは連続するフレームのスタックを入力として使用し、ネットワークブロックを使ってアーティファクトを効果的に学習して特徴を学習する。
論文 参考訳(メタデータ) (2021-03-25T08:47:46Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z) - A Deep-Unfolded Reference-Based RPCA Network For Video
Foreground-Background Separation [86.35434065681925]
本稿では,ロバスト主成分分析(RPCA)問題に対するディープアンフォールディングに基づくネットワーク設計を提案する。
既存の設計とは異なり,本手法は連続するビデオフレームのスパース表現間の時間的相関をモデル化することに焦点を当てている。
移動MNISTデータセットを用いた実験により、提案したネットワークは、ビデオフォアグラウンドとバックグラウンドの分離作業において、最近提案された最先端のRPCAネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T11:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。