論文の概要: VHS to HDTV Video Translation using Multi-task Adversarial Learning
- arxiv url: http://arxiv.org/abs/2101.02384v1
- Date: Thu, 7 Jan 2021 06:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 13:30:33.943225
- Title: VHS to HDTV Video Translation using Multi-task Adversarial Learning
- Title(参考訳): マルチタスク逆学習を用いたVHSからHDTVビデオへの変換
- Authors: Hongming Luo, Guangsen Liao, Xianxu Hou, Bozhi Liu, Fei Zhou and
Guoping Qiu
- Abstract要約: VHSビデオは鈍い色の外観を持つだけでなく、解像度も低く、しばしばぼやけて見えます。
本稿では,VHS映像をHDTV映像に翻訳する問題に着目し,教師なしのマルチタスク対比学習モデルに基づくソリューションを開発した。
我々の研究の重要なイノベーションは、スーパーレゾリューションモデルと、教師なしのマルチタスク問題を解決するカラートランスファーモデルの導入です。
- 参考スコア(独自算出の注目度): 31.00726434339155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are large amount of valuable video archives in Video Home System (VHS)
format. However, due to the analog nature, their quality is often poor.
Compared to High-definition television (HDTV), VHS video not only has a dull
color appearance but also has a lower resolution and often appears blurry. In
this paper, we focus on the problem of translating VHS video to HDTV video and
have developed a solution based on a novel unsupervised multi-task adversarial
learning model. Inspired by the success of generative adversarial network (GAN)
and CycleGAN, we employ cycle consistency loss, adversarial loss and perceptual
loss together to learn a translation model. An important innovation of our work
is the incorporation of super-resolution model and color transfer model that
can solve unsupervised multi-task problem. To our knowledge, this is the first
work that dedicated to the study of the relation between VHS and HDTV and the
first computational solution to translate VHS to HDTV. We present experimental
results to demonstrate the effectiveness of our solution qualitatively and
quantitatively.
- Abstract(参考訳): ビデオホームシステム(VHS)フォーマットには貴重なビデオアーカイブが多数存在する。
しかし、アナログな性質から、その品質はしばしば貧弱である。
高精細テレビ(HDTV)と比較すると、VHSビデオは色が鈍く、解像度も低く、しばしばぼやけている。
本稿では,VHS動画をHDTVビデオに変換する問題に着目し,教師なしマルチタスク対角学習モデルに基づくソリューションを開発した。
生成的対位ネットワーク(GAN)とCycleGAN(CycleGAN)の成功に触発されて、サイクル整合損失、対位損失、知覚的損失を併用して翻訳モデルを学ぶ。
我々の研究の重要なイノベーションは、スーパーレゾリューションモデルと、教師なしのマルチタスク問題を解決するカラートランスファーモデルの導入です。
我々の知る限り、VHSとHDTVの関係を研究するための最初の研究であり、VHSをHDTVに変換する最初の計算ソリューションである。
本研究では, 定性的かつ定量的に解の有効性を示す実験結果を示す。
関連論文リスト
- Let Video Teaches You More: Video-to-Image Knowledge Distillation using DEtection TRansformer for Medical Video Lesion Detection [91.97935118185]
医用ビデオ病変検出のための画像間知識蒸留法を提案する。
複数フレームのコンテキストを単一のフレームに蒸留することにより、ビデオベースモデルから時間的コンテキストを利用する利点と、画像ベースモデルの推論速度を組み合わせたV2I-DETRを提案する。
V2I-DETRは、画像ベースモデルとしてリアルタイム推論速度(30FPS)を達成しつつ、従来の最先端手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2024-08-26T07:17:05Z) - Progressive Training of A Two-Stage Framework for Video Restoration [46.3264296278162]
マルチフレームリカレントネットワークとシングルフレームトランスを含む2段階のフレームワークを提案する。
NTIRE 2022のスーパーレゾリューションと圧縮ビデオの画質向上で2つのチャンピオンを獲得している。
論文 参考訳(メタデータ) (2022-04-21T07:24:14Z) - On the Generalization of BasicVSR++ to Video Deblurring and Denoising [98.99165593274304]
我々は、BasicVSR++をビデオ復元タスクのための汎用フレームワークに拡張する。
入力と出力が同じ空間サイズを持つタスクでは、入力解像度はストライド畳み込みによって削減され効率が維持される。
BasicVSR++からの最小限の変更だけで、提案するフレームワークは、様々なビデオ復元タスクにおいて、非常に効率よく魅力的なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-04-11T17:59:56Z) - A Novel Dual Dense Connection Network for Video Super-resolution [0.0]
ビデオ・スーパーレゾリューション(VSR)とは、対応する低解像度(LR)ビデオから高解像度(HR)ビデオの再構成を指す。
本稿では,高画質超解像(SR)を生成できる新しい二重高密度接続ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-05T12:21:29Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - Advancing High-Resolution Video-Language Representation with Large-Scale
Video Transcriptions [31.4943447481144]
本稿では,共同学習と言語学習(VL)について検討し,モダリティ間の学習を可能とし,多くの下流作業に役立てる。
本モデルでは,10の理解タスクと2の新たなテキスト・ビジュアル生成タスクを実現する。
論文 参考訳(メタデータ) (2021-11-19T17:36:01Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z) - Video Understanding as Machine Translation [53.59298393079866]
我々は、単一の統合フレームワークを用いて、様々なダウンストリームビデオ理解タスクに取り組む。
映像分類(EPIC-Kitchens)、質問応答(TVQA)、キャプション(TVC, YouCook2, MSR-VTT)など、いくつかのダウンストリームタスクにおいて、現状よりもパフォーマンスの向上が報告されている。
論文 参考訳(メタデータ) (2020-06-12T14:07:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。