論文の概要: Deep Video Harmonization with Color Mapping Consistency
- arxiv url: http://arxiv.org/abs/2205.00687v1
- Date: Mon, 2 May 2022 07:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 13:23:07.080753
- Title: Deep Video Harmonization with Color Mapping Consistency
- Title(参考訳): カラーマッピングによる深層映像の高調波化
- Authors: Xinyuan Lu, Shengyuan Huang, Li Niu, Wenyan Cong, Liqing Zhang
- Abstract要約: ビデオハーモニゼーションは、合成ビデオの前景を調整して、背景と互換性を持たせることを目的としている。
我々は、合成合成ビデオを作成するために、実ビデオの前景を調整することで、新しいビデオ調和データセットHYouTubeを構築した。
- 参考スコア(独自算出の注目度): 19.029045319893434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video harmonization aims to adjust the foreground of a composite video to
make it compatible with the background. So far, video harmonization has only
received limited attention and there is no public dataset for video
harmonization. In this work, we construct a new video harmonization dataset
HYouTube by adjusting the foreground of real videos to create synthetic
composite videos. Moreover, we consider the temporal consistency in video
harmonization task. Unlike previous works which establish the spatial
correspondence, we design a novel framework based on the assumption of color
mapping consistency, which leverages the color mapping of neighboring frames to
refine the current frame. Extensive experiments on our HYouTube dataset prove
the effectiveness of our proposed framework. Our dataset and code are available
at https://github.com/bcmi/Video-Harmonization-Dataset-HYouTube.
- Abstract(参考訳): video harmonizationは、複合ビデオの前景を調整して、背景と互換性を持たせることを目的としている。
これまでのところ、ビデオハーモニゼーションは限定的であり、ビデオハーモニゼーションのためのパブリックデータセットはない。
本研究では,合成合成ビデオを作成するために,実映像の前景を調整することで,新しいビデオ調和データセットHYouTubeを構築する。
さらに,映像調和タスクにおける時間的一貫性について考察する。
空間対応を確立する従来の手法とは異なり、隣接するフレームのカラーマッピングを活用して現在のフレームを洗練させる、カラーマッピング一貫性の仮定に基づく新しいフレームワークを設計する。
HYouTubeデータセットの大規模な実験により、提案フレームワークの有効性が証明された。
データセットとコードはhttps://github.com/bcmi/Video-Harmonization-Dataset-HYouTube.comから入手可能です。
関連論文リスト
- TANGO: Co-Speech Gesture Video Reenactment with Hierarchical Audio Motion Embedding and Diffusion Interpolation [4.019144083959918]
TANGO(Tango)は、音声による体温映像を生成するためのフレームワークである。
TANGOは、わずか数分間のシングルスピーカー参照ビデオから、ボディジェスチャーを同期させた高忠実度ビデオを生成する。
論文 参考訳(メタデータ) (2024-10-05T16:30:46Z) - LVCD: Reference-based Lineart Video Colorization with Diffusion Models [18.0983825973013]
参照型リニアトビデオのカラー化のための第1のビデオ拡散フレームワークを提案する。
我々は、大規模な事前学習ビデオ拡散モデルを利用して、カラー化されたアニメーションビデオを生成する。
提案手法は高品質で長時間の時間一貫性のあるアニメーションビデオを生成することができる。
論文 参考訳(メタデータ) (2024-09-19T17:59:48Z) - Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation [93.18163456287164]
本稿では,動画に画像モデルを適用するための新しいテキスト誘導型動画翻訳フレームワークを提案する。
我々のフレームワークは,グローバルなスタイルと局所的なテクスチャの時間的一貫性を低コストで実現している。
論文 参考訳(メタデータ) (2023-06-13T17:52:23Z) - VideoComposer: Compositional Video Synthesis with Motion Controllability [52.4714732331632]
VideoComposerを使えば、ユーザーはテキストの条件や空間的条件、さらに重要な時間的条件でビデオを柔軟に組み立てることができる。
圧縮ビデオからの運動ベクトルを明示的な制御信号として導入し、時間的ダイナミクスに関するガイダンスを提供する。
さらに、逐次入力の空間的・時間的関係を効果的に組み込むために、統一インターフェースとして機能する時空間条件エンコーダ(STC-エンコーダ)を開発した。
論文 参考訳(メタデータ) (2023-06-03T06:29:02Z) - Towards Smooth Video Composition [59.134911550142455]
ビデオ生成には、時間とともに動的コンテンツを伴う一貫した永続的なフレームが必要である。
本研究は, 生成的対向ネットワーク(GAN)を用いて, 任意の長さの映像を構成するための時間的関係を, 数フレームから無限までモデル化するものである。
単体画像生成のためのエイリアスフリー操作は、適切に学習された知識とともに、フレーム単位の品質を損なうことなく、スムーズなフレーム遷移をもたらすことを示す。
論文 参考訳(メタデータ) (2022-12-14T18:54:13Z) - WALDO: Future Video Synthesis using Object Layer Decomposition and
Parametric Flow Prediction [82.79642869586587]
WALDOは、過去のビデオフレームを予測するための新しいアプローチである。
個々の画像は、オブジェクトマスクと小さなコントロールポイントのセットを組み合わせた複数の層に分解される。
レイヤ構造は、各ビデオ内のすべてのフレーム間で共有され、フレーム間の密接な接続を構築する。
論文 参考訳(メタデータ) (2022-11-25T18:59:46Z) - Video Demoireing with Relation-Based Temporal Consistency [68.20281109859998]
カラー歪みのように見えるモアレパターンは、デジタルカメラでスクリーンを撮影する際に、画像と映像の画質を著しく劣化させる。
我々は、このような望ましくないモアレパターンをビデオで除去する方法を研究している。
論文 参考訳(メタデータ) (2022-04-06T17:45:38Z) - HYouTube: Video Harmonization Dataset [17.001495403749033]
ビデオ合成は、あるビデオの前景と別のビデオの背景を組み合わせることで、合成ビデオを生成することを目的としている。
ビデオハーモニゼーションは、合成ビデオの前景を調整して、背景と互換性を持たせることを目的としている。
我々は、合成合成ビデオを作成するために、実ビデオの前景を調整することで、新しいビデオ調和データセットHYouTubeを構築した。
論文 参考訳(メタデータ) (2021-09-18T02:43:21Z) - Attention-guided Temporal Coherent Video Object Matting [78.82835351423383]
本稿では,時間的コヒーレントなマッチング結果が得られる深層学習に基づくオブジェクトマッチング手法を提案する。
中心となるコンポーネントは、画像マッチングネットワークの強度を最大化するアテンションベースの時間アグリゲーションモジュールである。
本稿では,最先端のビデオオブジェクトセグメンテーションネットワークを微調整することで,トリマップ生成問題を効果的に解決する方法を示す。
論文 参考訳(メタデータ) (2021-05-24T17:34:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。