論文の概要: Reference-Based Video Colorization with Spatiotemporal Correspondence
- arxiv url: http://arxiv.org/abs/2011.12528v1
- Date: Wed, 25 Nov 2020 05:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:54:52.744635
- Title: Reference-Based Video Colorization with Spatiotemporal Correspondence
- Title(参考訳): 時空間対応による参照型ビデオカラー化
- Authors: Naofumi Akimoto, Akio Hayakawa, Andrew Shin, Takuya Narihira
- Abstract要約: 時間対応を考慮した参照型ビデオカラー化フレームワークを提案する。
色を参照するために時間的関連領域を制限することで、ビデオ全体を通して忠実な色を伝播する。
- 参考スコア(独自算出の注目度): 8.472559058510205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel reference-based video colorization framework with
spatiotemporal correspondence. Reference-based methods colorize grayscale
frames referencing a user input color frame. Existing methods suffer from the
color leakage between objects and the emergence of average colors, derived from
non-local semantic correspondence in space. To address this issue, we warp
colors only from the regions on the reference frame restricted by
correspondence in time. We propagate masks as temporal correspondences, using
two complementary tracking approaches: off-the-shelf instance tracking for high
performance segmentation, and newly proposed dense tracking to track various
types of objects. By restricting temporally-related regions for referencing
colors, our approach propagates faithful colors throughout the video.
Experiments demonstrate that our method outperforms state-of-the-art methods
quantitatively and qualitatively.
- Abstract(参考訳): 時空間対応型参照型ビデオカラー化フレームワークを提案する。
参照ベース手法は、ユーザが入力したカラーフレームを参照するグレースケールフレームをカラー化する。
既存の手法では、空間における非局所的な意味的対応から生じる、オブジェクト間の色漏れと平均色の発生に苦しむ。
この問題に対処するために,参照フレーム上の領域からのみ色を時間的対応によって制限する。
マスクを時間的対応としてプロパガンダし、オフザシェルフのインスタンス追跡による高性能セグメンテーションと、様々な種類のオブジェクトを追跡するための新しい高密度トラッキングという2つの補完的な追跡手法を用いる。
色を参照するために時間的関連領域を制限することで、ビデオ全体を通して忠実な色を伝播する。
実験により,本手法は最先端手法よりも定量的,定性的に優れていることが示された。
関連論文リスト
- Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - LatentColorization: Latent Diffusion-Based Speaker Video Colorization [1.2641141743223379]
ビデオのカラー化における時間的一貫性を実現するための新しいソリューションを提案する。
既存の手法と比較して,確立された画像品質指標の大幅な改善を示す。
我々のデータセットは、テレビ/映画からの従来のデータセットとビデオの組み合わせを含んでいる。
論文 参考訳(メタデータ) (2024-05-09T12:06:06Z) - Learning Inclusion Matching for Animation Paint Bucket Colorization [76.4507878427755]
ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
論文 参考訳(メタデータ) (2024-03-27T08:32:48Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Video Colorization with Pre-trained Text-to-Image Diffusion Models [19.807766482434563]
ビデオカラー化のための事前訓練されたテキストから画像への潜時拡散モデルの適応であるColorDiffuserを提案する。
本稿では,時間的コヒーレンスを高め,フレーム間の色付けの鮮明さを維持するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T17:58:00Z) - Temporal Consistent Automatic Video Colorization via Semantic
Correspondence [12.107878178519128]
本稿では,セマンティック対応と自動ビデオカラー化を組み合わせた新しい映像カラー化フレームワークを提案する。
NTIRE 2023ビデオカラー化チャレンジでは,色分布一貫性(CDC)最適化トラックで3位にランクインした。
論文 参考訳(メタデータ) (2023-05-13T12:06:09Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Temporally Consistent Video Colorization with Deep Feature Propagation
and Self-regularization Learning [90.38674162878496]
時間的に一貫した新しいビデオカラー化フレームワーク(TCVC)を提案する。
TCVCは、フレームレベルの深い特徴を双方向的に効果的に伝播し、色付けの時間的一貫性を高める。
実験により,本手法は視覚的に満足な色付きビデオを得るだけでなく,最先端の手法よりも時間的整合性が得られることが示された。
論文 参考訳(メタデータ) (2021-10-09T13:00:14Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。