論文の概要: Enhanced Spatio-Temporal Interaction Learning for Video Deraining: A
Faster and Better Framework
- arxiv url: http://arxiv.org/abs/2103.12318v1
- Date: Tue, 23 Mar 2021 05:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:55:03.602987
- Title: Enhanced Spatio-Temporal Interaction Learning for Video Deraining: A
Faster and Better Framework
- Title(参考訳): ビデオレイニングのための時空間インタラクション学習の強化 - より高速で優れたフレームワーク
- Authors: Kaihao Zhang, Dongxu Li, Wenhan Luo, Wen-Yan Lin, Fang Zhao, Wenqi
Ren, Wei Liu, Hongdong Li
- Abstract要約: 不要な雨がビデオの可視性を阻害し、ほとんどの屋外ビジョンシステムの堅牢性を低下させるため、ビデオ排水はコンピュータビジョンの重要なタスクです。
拡張時空間相互作用ネットワーク(ESTINet)と呼ばれる新しいエンドツーエンドのデラミニングフレームワークを提案する。
ESTINetは、現在の最先端ビデオの画質とスピードを大幅に向上させる。
- 参考スコア(独自算出の注目度): 93.37833982180538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video deraining is an important task in computer vision as the unwanted rain
hampers the visibility of videos and deteriorates the robustness of most
outdoor vision systems. Despite the significant success which has been achieved
for video deraining recently, two major challenges remain: 1) how to exploit
the vast information among continuous frames to extract powerful
spatio-temporal features across both the spatial and temporal domains, and 2)
how to restore high-quality derained videos with a high-speed approach. In this
paper, we present a new end-to-end video deraining framework, named Enhanced
Spatio-Temporal Interaction Network (ESTINet), which considerably boosts
current state-of-the-art video deraining quality and speed. The ESTINet takes
the advantage of deep residual networks and convolutional long short-term
memory, which can capture the spatial features and temporal correlations among
continuing frames at the cost of very little computational source. Extensive
experiments on three public datasets show that the proposed ESTINet can achieve
faster speed than the competitors, while maintaining better performance than
the state-of-the-art methods.
- Abstract(参考訳): ビデオデライニングは、望ましくない雨がビデオの可視性を妨げ、ほとんどの屋外視覚システムの堅牢性を損なうため、コンピュータビジョンにおいて重要なタスクである。
近年, ビデオデライニングにおいて大きな成功を収めたにもかかわらず, 1) 空間領域と時間領域の両方にわたる強力な時空間特徴を抽出するために, 連続フレーム間の膨大な情報を利用する方法, 2) 高品質なデライニング映像を高速に復元する方法の2つの大きな課題が残っている。
本稿では,現在最先端のビデオデライニングの品質と速度を大幅に向上させる,ESTINet(Enhanced Spatio-Temporal Interaction Network)という,エンドツーエンドのビデオデライニングフレームワークを提案する。
エスティネットは、深い残留ネットワークと畳み込み型長期記憶の利点を生かしており、計算源の少ないコストで継続フレーム間の空間的特徴と時間的相関を捉えることができる。
3つの公開データセットに対する大規模な実験は、提案されたESTINetが競合他社よりも高速に動作でき、最先端の手法よりも優れたパフォーマンスを維持していることを示している。
関連論文リスト
- BroadWay: Boost Your Text-to-Video Generation Model in a Training-free Way [72.1984861448374]
そこで,BroadWayを提案する。BroadWayは,追加パラメータやメモリ増設,サンプリング時間を追加することなく,テキスト・ビデオ・ジェネレーションの品質を向上するためのトレーニング不要な手法である。
具体的には、BroadWayは2つの主要コンポーネントから構成される: 1) 時間的自己誘導は、様々なデコーダブロック間の時間的注意マップ間の格差を減らし、生成されたビデオの構造的妥当性と時間的一貫性を改善する。
論文 参考訳(メタデータ) (2024-10-08T17:56:33Z) - Unrolled Decomposed Unpaired Learning for Controllable Low-Light Video Enhancement [48.76608212565327]
本稿では,2対の地上真実を使わずに,低照度映像のエンハンスメントを学習する上での取り組みについて述べる。
低照度画像の強調に比べて、空間領域におけるノイズ、露出、コントラストの相互干渉効果により、時間的コヒーレンスの必要性が伴うため、低照度映像の強調は困難である。
本稿では,信号の空間的・時間的関連要因に分解するために,最適化関数を深層ネットワークにアンロールすることで低照度映像の高精細化を実現するUnrolled Decompposed Unpaired Network (UDU-Net)を提案する。
論文 参考訳(メタデータ) (2024-08-22T11:45:11Z) - RainMamba: Enhanced Locality Learning with State Space Models for Video Deraining [14.025870185802463]
我々は,シーケンスレベルのローカル情報をよりよくキャプチャするための,新しいヒルベルト機構を備えた改良されたSSMベースのビデオデライニングネットワーク(RainMamba)を提案する。
また,提案したネットワークのパッチレベルの自己相似学習能力を高めるために,差分誘導動的コントラスト学習戦略を導入する。
論文 参考訳(メタデータ) (2024-07-31T17:48:22Z) - Online Video Quality Enhancement with Spatial-Temporal Look-up Tables [42.07242907586958]
ビデオ会議やクラウドゲームなど、オンラインビデオベースのアプリケーションでは、レイテンシの低さが不可欠だ。
既存の品質向上手法は、速度の遅い推論速度と、将来のフレームに含まれる時間情報の要求によって制限される。
本稿では,オンラインビデオ品質向上(Online-VQE)問題に対処するために,STLVQEを提案する。
論文 参考訳(メタデータ) (2023-11-22T06:49:44Z) - ReBotNet: Fast Real-time Video Enhancement [59.08038313427057]
ほとんどの復元ネットワークは遅く、高い計算ボトルネックがあり、リアルタイムビデオ拡張には使用できない。
本研究では,ライブビデオ通話やビデオストリームなどの実用的なユースケースをリアルタイムに拡張するための,効率的かつ高速なフレームワークを設計する。
提案手法を評価するために,実世界のビデオ通話とストリーミングのシナリオを示す2つの新しいデータセットをエミュレートし,ReBotNetがより少ない計算,メモリ要求の低減,より高速な推論時間で既存手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-23T17:58:05Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - An Efficient Recurrent Adversarial Framework for Unsupervised Real-Time
Video Enhancement [132.60976158877608]
対比ビデオの例から直接学習する効率的な対比ビデオ強化フレームワークを提案する。
特に,空間的情報と時間的情報の暗黙的統合のための局所的モジュールとグローバルモジュールからなる新しい再帰的セルを導入する。
提案する設計では,フレーム間の情報伝達を効率的に行うことができ,複雑なネットワークの必要性を低減できる。
論文 参考訳(メタデータ) (2020-12-24T00:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。