論文の概要: Learning Long-Term Style-Preserving Blind Video Temporal Consistency
- arxiv url: http://arxiv.org/abs/2103.07278v1
- Date: Fri, 12 Mar 2021 13:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:22:01.547003
- Title: Learning Long-Term Style-Preserving Blind Video Temporal Consistency
- Title(参考訳): 長期保存型ブラインドビデオ一貫性の学習
- Authors: Hugo Thimonier, Julien Despois, Robin Kips, Matthieu Perrot
- Abstract要約: 本論文では, 映像に適用される変換を, 繰り返しニューラルネットワークという形で後処理モデルを提案する。
我々のモデルは、最近GANビデオ生成のために導入されたPing Pongプロシージャとそれに対応する損失を用いて訓練されている。
DAVISとvidevo.netデータセットのモデルを評価し、フリック除去に関する最先端の結果を提供することを示す。
- 参考スコア(独自算出の注目度): 6.6908747077585105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When trying to independently apply image-trained algorithms to successive
frames in videos, noxious flickering tends to appear. State-of-the-art
post-processing techniques that aim at fostering temporal consistency, generate
other temporal artifacts and visually alter the style of videos. We propose a
postprocessing model, agnostic to the transformation applied to videos (e.g.
style transfer, image manipulation using GANs, etc.), in the form of a
recurrent neural network. Our model is trained using a Ping Pong procedure and
its corresponding loss, recently introduced for GAN video generation, as well
as a novel style preserving perceptual loss. The former improves long-term
temporal consistency learning, while the latter fosters style preservation. We
evaluate our model on the DAVIS and videvo.net datasets and show that our
approach offers state-of-the-art results concerning flicker removal, and better
keeps the overall style of the videos than previous approaches.
- Abstract(参考訳): ビデオの連続フレームに画像学習アルゴリズムを独立に適用しようとすると、有害なフリックが現れる傾向がある。
時間的一貫性を育み、他の時間的アーティファクトを生成し、ビデオのスタイルを視覚的に変えることを目的とした、最先端のポストプロセッシング技術。
ビデオに適用される変換に非依存な後処理モデルを提案する(例)。
スタイル転送、GANを用いた画像操作など。
) 再帰的なニューラルネットワークの形で表される。
近年GANビデオ生成のために導入されたPing Pongプロシージャとそれに対応する損失と、知覚的損失を保存する新しいスタイルを用いてトレーニングを行った。
前者は長期的一貫性学習を改善し、後者はスタイル保存を促進する。
DAVISとvidevo.netデータセットのモデルを評価し、フリック除去に関する最先端の結果を提供し、従来の手法よりもビデオ全体のスタイルを良く維持していることを示す。
関連論文リスト
- WAIT: Feature Warping for Animation to Illustration video Translation
using GANs [12.681919619814419]
ビデオのスタイリングにおいて,未順序画像の集合を用いる場合の新たな問題を提案する。
映像から映像への翻訳のほとんどは、画像から画像への翻訳モデルに基づいて構築されている。
本稿では,従来の手法の限界を克服する特徴変形層を有する新しいジェネレータネットワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T19:45:24Z) - Time Does Tell: Self-Supervised Time-Tuning of Dense Image
Representations [79.87044240860466]
本稿では,高密度自己教師あり学習における時間的一貫性を取り入れた新しい手法を提案する。
タイムチューニング(time-tuning)と呼ぶ我々のアプローチは、画像事前学習モデルから始まり、ラベルなしビデオに新たな自己教師付き時間的アライメントクラスタリングロスを伴って微調整を行う。
タイムチューニングは、教師なしのセマンティックセマンティックセグメンテーションを8~10%改善し、画像にマッチさせる。
論文 参考訳(メタデータ) (2023-08-22T21:28:58Z) - Style-A-Video: Agile Diffusion for Arbitrary Text-based Video Style
Transfer [13.098901971644656]
本稿では,Style-A-Video というゼロショットビデオスタイリング手法を提案する。
画像遅延拡散モデルを用いた生成事前学習型トランスフォーマーを用いて、簡潔なテキスト制御ビデオスタイリングを実現する。
テストの結果,従来のソリューションよりも少ない使用量で,優れたコンテンツ保存とスタイリスティックな性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-09T14:03:27Z) - Video Demoireing with Relation-Based Temporal Consistency [68.20281109859998]
カラー歪みのように見えるモアレパターンは、デジタルカメラでスクリーンを撮影する際に、画像と映像の画質を著しく劣化させる。
我々は、このような望ましくないモアレパターンをビデオで除去する方法を研究している。
論文 参考訳(メタデータ) (2022-04-06T17:45:38Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - StyleVideoGAN: A Temporal Generative Model using a Pretrained StyleGAN [70.31913835035206]
本稿では,映像合成問題に対する新しいアプローチを提案する。
トレーニング済みのStyleGANネットワークを利用することで、トレーニング対象の外観を制御できます。
我々の時間的アーキテクチャは、RGBフレームのシーケンスではなく、StyleGANの潜在符号のシーケンスに基づいて訓練される。
論文 参考訳(メタデータ) (2021-07-15T09:58:15Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z) - Future Video Synthesis with Object Motion Prediction [54.31508711871764]
画像を直接合成するのではなく、複雑なシーンのダイナミクスを理解するように設計されている。
将来のシーンコンポーネントの出現は、背景の非剛性変形と移動物体のアフィン変換によって予測される。
CityscapesとKITTIデータセットの実験結果から、我々のモデルは視覚的品質と精度で最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-04-01T16:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。