論文の概要: Multi-Scale Memory-Based Video Deblurring
- arxiv url: http://arxiv.org/abs/2204.02977v1
- Date: Wed, 6 Apr 2022 08:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 16:08:36.169080
- Title: Multi-Scale Memory-Based Video Deblurring
- Title(参考訳): マルチスケールメモリベースビデオの劣化
- Authors: Bo Ji and Angela Yao
- Abstract要約: メモリバンク内のぼやけたシャープ特徴ペアを記憶するためのメモリブランチを設計する。
メモリバンクのメモリを豊かにするために、双方向の頻繁度とマルチスケール戦略も設計した。
実験により,本モデルが他の最先端手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 34.488707652997704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video deblurring has achieved remarkable progress thanks to the success of
deep neural networks. Most methods solve for the deblurring end-to-end with
limited information propagation from the video sequence. However, different
frame regions exhibit different characteristics and should be provided with
corresponding relevant information. To achieve fine-grained deblurring, we
designed a memory branch to memorize the blurry-sharp feature pairs in the
memory bank, thus providing useful information for the blurry query input. To
enrich the memory of our memory bank, we further designed a bidirectional
recurrency and multi-scale strategy based on the memory bank. Experimental
results demonstrate that our model outperforms other state-of-the-art methods
while keeping the model complexity and inference time low. The code is
available at https://github.com/jibo27/MemDeblur.
- Abstract(参考訳): ディープニューラルネットワークの成功により、ビデオの劣化は目覚ましい進歩を遂げた。
ほとんどの方法は、ビデオシーケンスからの限られた情報伝搬で端から端までデブラリングする。
しかし、異なるフレーム領域は異なる特性を示し、対応する関連情報を提供する必要がある。
きめ細かいデブラリングを実現するために,メモリバンク内のぼやけた特徴対を記憶するメモリブランチを設計し,ぼやけたクエリ入力に有用な情報を提供する。
メモリバンクのメモリを充実させるために,メモリバンクに基づく双方向の並行性とマルチスケール戦略を設計した。
実験の結果,本モデルはモデルの複雑さと推論時間を低く保ちながら,他の最先端手法よりも優れていることがわかった。
コードはhttps://github.com/jibo27/memdeblurで入手できる。
関連論文リスト
- MAMBA: Multi-level Aggregation via Memory Bank for Video Object
Detection [35.16197118579414]
我々は,MAMBAと呼ばれるメモリバンクを用いたマルチレベル集約アーキテクチャを提案する。
具体的には,既存の手法の欠点を解消するために,メモリバンクが2つの新しい操作を施している。
従来の最先端手法と比較して,提案手法は速度と精度の両面で優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-01-18T12:13:06Z) - A Simple Recipe for Contrastively Pre-training Video-First Encoders
Beyond 16 Frames [54.90226700939778]
我々は,大規模な画像テキストモデルを浅部時間融合によりビデオに転送する共通パラダイムを構築した。
1)標準ビデオデータセットにおけるビデオ言語アライメントの低下による空間能力の低下と,(2)処理可能なフレーム数のボトルネックとなるメモリ消費の増大である。
論文 参考訳(メタデータ) (2023-12-12T16:10:19Z) - Memory-Efficient Continual Learning Object Segmentation for Long Video [7.9190306016374485]
本稿では,オンラインVOS手法のメモリ要求を低減し,長ビデオのモデリング精度と一般化を向上する2つの新しい手法を提案する。
事前学習した知識を保存するための継続的学習技術の成功に動機づけられた、Gated-Regularizer Continual Learning (GRCL)とRestruction-based Memory Selection Continual Learning (RMSCL)を提案する。
実験結果から,提案手法はオンラインVOSモデルの性能を8%以上向上し,長期画像データセットのロバスト性の向上を図っている。
論文 参考訳(メタデータ) (2023-09-26T21:22:03Z) - Just a Glimpse: Rethinking Temporal Information for Video Continual
Learning [58.7097258722291]
個別フレームと単一フレームに基づく効果的なビデオ連続学習のための新しい再生機構を提案する。
極端な記憶の制約の下では、ビデオの多様性は時間的情報よりも重要な役割を果たす。
提案手法は最先端性能を実現し,従来の最先端性能を最大21.49%向上させる。
論文 参考訳(メタデータ) (2023-05-28T19:14:25Z) - Memory Efficient Temporal & Visual Graph Model for Unsupervised Video
Domain Adaptation [50.158454960223274]
既存のビデオドメイン適応(DA)手法は、ビデオフレームの時間的組み合わせを全て格納するか、ソースとターゲットのビデオをペアにする必要がある。
本稿では,メモリ効率の高いグラフベースビデオDA手法を提案する。
論文 参考訳(メタデータ) (2022-08-13T02:56:10Z) - Per-Clip Video Object Segmentation [110.08925274049409]
近年、メモリベースの手法は、半教師付きビデオオブジェクトセグメンテーションにおいて有望な結果を示している。
映像オブジェクトのセグメンテーションをクリップワイドマスクワイド伝搬として扱う。
本稿では,Clip毎の推論に適した新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-03T09:02:29Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Adaptive Memory Management for Video Object Segmentation [6.282068591820945]
マッチングベースのネットワークは、将来の推論のために、各kフレームを外部メモリバンクに格納する。
メモリバンクのサイズはビデオの長さによって徐々に増加し、推論速度が遅くなり、任意の長さのビデオを扱うのが不可能になる。
本稿では、半教師付きビデオオブジェクトセグメンテーション(VOS)のためのマッチングベースネットワークのための適応型メモリバンク戦略を提案する。
論文 参考訳(メタデータ) (2022-04-13T19:59:07Z) - Memformer: A Memory-Augmented Transformer for Sequence Modeling [55.780849185884996]
本稿では、シーケンスモデリングのための効率的なニューラルネットワークであるMemformerを紹介する。
我々のモデルは長いシーケンスを処理する際に線形時間複雑性と一定メモリ空間複雑性を実現する。
論文 参考訳(メタデータ) (2020-10-14T09:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。