論文の概要: Video Dehazing via a Multi-Range Temporal Alignment Network with
Physical Prior
- arxiv url: http://arxiv.org/abs/2303.09757v1
- Date: Fri, 17 Mar 2023 03:44:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:39:18.005332
- Title: Video Dehazing via a Multi-Range Temporal Alignment Network with
Physical Prior
- Title(参考訳): 物理的に先行したマルチレンジ時間アライメントネットワークによる映像デハジング
- Authors: Jiaqi Xu, Xiaowei Hu, Lei Zhu, Qi Dou, Jifeng Dai, Yu Qiao, Pheng-Ann
Heng
- Abstract要約: ビデオのデハジングは、高い可視性とコントラストでヘイズフリーフレームを回復することを目的としている。
本稿では,物理ヘイズ先行を探索し,時間的情報を集約する新しい枠組みを提案する。
大規模な屋外ビデオデハージングベンチマークデータセットを構築した。
- 参考スコア(独自算出の注目度): 117.6741444489174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video dehazing aims to recover haze-free frames with high visibility and
contrast. This paper presents a novel framework to effectively explore the
physical haze priors and aggregate temporal information. Specifically, we
design a memory-based physical prior guidance module to encode the
prior-related features into long-range memory. Besides, we formulate a
multi-range scene radiance recovery module to capture space-time dependencies
in multiple space-time ranges, which helps to effectively aggregate temporal
information from adjacent frames. Moreover, we construct the first large-scale
outdoor video dehazing benchmark dataset, which contains videos in various
real-world scenarios. Experimental results on both synthetic and real
conditions show the superiority of our proposed method.
- Abstract(参考訳): video dehazingは、高視認性とコントラストでhazeフリーのフレームを復元することを目的としている。
本稿では,物理ヘイズ先行を効果的に探索し,時間情報を集約する新しい枠組みを提案する。
具体的には,メモリをベースとした物理事前誘導モジュールを設計し,その特徴を長距離メモリにエンコードする。
また,複数の時空範囲の時空依存性をキャプチャするために,複数範囲のシーンラミアンスリカバリモジュールを定式化し,隣接フレームからの時間情報を効果的に集約する。
さらに,実世界の様々なシナリオのビデオを含む,初の大規模屋外ビデオデヘイジングベンチマークデータセットを構築した。
合成条件と実条件の両方の実験結果から,提案手法の優位性を示した。
関連論文リスト
- Driving-Video Dehazing with Non-Aligned Regularization for Safety Assistance [24.671417176179187]
実際のドライビングビデオのデハージングは、正確に整列/クリアなビデオペアを取得するのが本質的に困難であるため、大きな課題となる。
非整合正規化戦略を通じてこの問題に対処する先駆的なアプローチを提案する。
このアプローチは、参照マッチングとビデオデハージングの2つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-05-16T11:28:01Z) - A Simple Recipe for Contrastively Pre-training Video-First Encoders
Beyond 16 Frames [54.90226700939778]
我々は,大規模な画像テキストモデルを浅部時間融合によりビデオに転送する共通パラダイムを構築した。
1)標準ビデオデータセットにおけるビデオ言語アライメントの低下による空間能力の低下と,(2)処理可能なフレーム数のボトルネックとなるメモリ消費の増大である。
論文 参考訳(メタデータ) (2023-12-12T16:10:19Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - Fast Non-Rigid Radiance Fields from Monocularized Data [66.74229489512683]
本稿では,不規則に変形するシーンを360度内向きに合成する新しい手法を提案する。
提案手法のコアとなるのは, 空間情報と時間情報の処理を分離し, 訓練と推論を高速化する効率的な変形モジュール, 2) 高速ハッシュ符号化ニューラルラジオアンスフィールドとしての標準シーンを表す静的モジュールである。
どちらの場合も,本手法は従来の手法よりもはるかに高速で,7分未満で収束し,1K解像度でリアルタイムのフレームレートを実現するとともに,生成した新規なビューに対して高い視覚的精度が得られる。
論文 参考訳(メタデータ) (2022-12-02T18:51:10Z) - Motion-aware Memory Network for Fast Video Salient Object Detection [15.967509480432266]
我々は、隣接するフレームから現在のフレームの有用な時間情報をVSODの時間枝として抽出する時空間メモリ(STM)ベースのネットワークを設計する。
符号化段階では、電流とその隣接するフレームから高次特徴を用いて高次時間特徴を生成する。
復号化段階では,空間的および時間的分岐に対する効果的な融合戦略を提案する。
提案モデルでは,光学フローなどの前処理を必要とせず,推定時に100FPS近い速度に達することができる。
論文 参考訳(メタデータ) (2022-08-01T15:56:19Z) - Video Demoireing with Relation-Based Temporal Consistency [68.20281109859998]
カラー歪みのように見えるモアレパターンは、デジタルカメラでスクリーンを撮影する際に、画像と映像の画質を著しく劣化させる。
我々は、このような望ましくないモアレパターンをビデオで除去する方法を研究している。
論文 参考訳(メタデータ) (2022-04-06T17:45:38Z) - Coarse-Fine Networks for Temporal Activity Detection in Videos [45.03545172714305]
Co-Fine Networks」は、時間分解の異なる抽象化の恩恵を受け、長期的な動きのためのより良いビデオ表現を学ぶ2流アーキテクチャです。
提案手法は,計算量とメモリフットプリントを大幅に削減して,公開データセットにおける動作検出の最先端を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-03-01T20:48:01Z) - Video Super-resolution with Temporal Group Attention [127.21615040695941]
本稿では,時間的情報を階層的に効果的に組み込む新しい手法を提案する。
入力シーケンスは複数のグループに分けられ、それぞれがフレームレートの種類に対応する。
これは、いくつかのベンチマークデータセットにおける最先端のメソッドに対して良好なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-21T04:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。