論文の概要: HSTR-Net: High Spatio-Temporal Resolution Video Generation For Wide Area
Surveillance
- arxiv url: http://arxiv.org/abs/2204.04435v1
- Date: Sat, 9 Apr 2022 09:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 17:43:22.343533
- Title: HSTR-Net: High Spatio-Temporal Resolution Video Generation For Wide Area
Surveillance
- Title(参考訳): HSTR-Net: 広域監視のための高空間分解能ビデオ生成
- Authors: H. Umut Suluhan, Hasan F. Ates, Bahadir K. Gunturk
- Abstract要約: 本稿では,HSTRビデオ生成における複数のビデオフィードの利用について述べる。
主な目的は、HSLFとLSHFビデオの融合によるHSTRビデオを作成することである。
- 参考スコア(独自算出の注目度): 4.125187280299246
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Wide area surveillance has many applications and tracking of objects under
observation is an important task, which often needs high spatio-temporal
resolution (HSTR) video for better precision. This paper presents the usage of
multiple video feeds for the generation of HSTR video as an extension of
reference based super resolution (RefSR). One feed captures video at high
spatial resolution with low frame rate (HSLF) while the other captures low
spatial resolution and high frame rate (LSHF) video simultaneously for the same
scene. The main purpose is to create an HSTR video from the fusion of HSLF and
LSHF videos. In this paper we propose an end-to-end trainable deep network that
performs optical flow estimation and frame reconstruction by combining inputs
from both video feeds. The proposed architecture provides significant
improvement over existing video frame interpolation and RefSR techniques in
terms of objective PSNR and SSIM metrics.
- Abstract(参考訳): 広域監視には多くの応用があり、観測対象の追跡は重要な課題であり、高精度な時空間分解能(HSTR)ビデオを必要とすることが多い。
本稿では,参照ベーススーパーレゾリューション(RefSR)の拡張として,HSTRビデオの生成に複数のビデオフィードを使用することを提案する。
1つのフィードは低フレームレート(HSLF)で高空間解像度でビデオをキャプチャし、もう1つのフィードは同じシーンで低空間解像度と高フレームレート(LSHF)ビデオを同時にキャプチャする。
主な目的は、HSLFとLSHFビデオの融合によるHSTRビデオを作成することである。
本稿では,両ビデオフィードからの入力を組み合わせて,光フロー推定とフレーム再構成を行う,エンドツーエンドのトレーニング可能な深層ネットワークを提案する。
提案アーキテクチャは,PSNRとSSIMの客観的指標から既存のビデオフレーム補間とRefSR技術を大幅に改善する。
関連論文リスト
- Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - HSTR-Net: Reference Based Video Super-resolution with Dual Cameras [2.4749083496491675]
本稿では,参照ベーススーパーレゾリューション(RefSR)を用いたHSTRビデオ生成のためのデュアルカメラシステムを提案する。
1台のカメラは高解像度低フレームレート(HSLF)ビデオを撮影し、もう1台のカメラは同時に低解像度高フレームレート(LSHF)ビデオを撮影する。
HSLFおよびLSHFビデオフィードを融合し,HSTRビデオフレームを合成するために,新しいディープラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-10-18T16:37:01Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - STRPM: A Spatiotemporal Residual Predictive Model for High-Resolution
Video Prediction [78.129039340528]
本稿では,高解像度映像予測のための時間残差予測モデル(STRPM)を提案する。
STRPMは、既存の様々な方法と比較して、より満足な結果を得ることができる。
実験の結果, STRPMは既存手法と比較して良好な結果が得られた。
論文 参考訳(メタデータ) (2022-03-30T06:24:00Z) - STDAN: Deformable Attention Network for Space-Time Video
Super-Resolution [39.18399652834573]
本稿では,STDAN と呼ばれる,STVSR のための変形可能なアテンションネットワークを提案する。
まず、より近隣の入力フレームから豊富なコンテンツを得ることができるLSTFI(long-short term feature)モジュールを考案する。
第2に,空間的・時間的文脈を適応的に捕捉・集約する時空間変形可能特徴集合(STDFA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-03-14T03:40:35Z) - Zooming SlowMo: An Efficient One-Stage Framework for Space-Time Video
Super-Resolution [100.11355888909102]
時空ビデオ超解像度は低解像度(LR)と低フレームレート(LFR)ビデオシーケンスから高解像度(HR)スローモーションビデオを生成することを目的としている。
入力LRおよびLFRビデオから直接HRスローモーション映像シーケンスを再構成できる一段階の時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:23Z) - Deep Slow Motion Video Reconstruction with Hybrid Imaging System [12.340049542098148]
現在の技術は、難題では有効でない線形物体の動きを仮定することにより、フレームを通して標準映像のフレームレートを増大させる。
本稿では,アライメントと外観推定を組み合わせた2段階のディープラーニングシステムを提案する。
我々は、合成合成ハイブリッドビデオでモデルをトレーニングし、様々なテストシーンで高品質な結果を示す。
論文 参考訳(メタデータ) (2020-02-27T14:18:12Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。