論文の概要: Temporally Consistent Video Colorization with Deep Feature Propagation
and Self-regularization Learning
- arxiv url: http://arxiv.org/abs/2110.04562v1
- Date: Sat, 9 Oct 2021 13:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 19:18:00.674320
- Title: Temporally Consistent Video Colorization with Deep Feature Propagation
and Self-regularization Learning
- Title(参考訳): 深部特徴伝搬と自己正規化学習による時間一貫性ビデオカラー化
- Authors: Yihao Liu and Hengyuan Zhao and Kelvin C.K. Chan and Xintao Wang and
Chen Change Loy and Yu Qiao and Chao Dong
- Abstract要約: 時間的に一貫した新しいビデオカラー化フレームワーク(TCVC)を提案する。
TCVCは、フレームレベルの深い特徴を双方向的に効果的に伝播し、色付けの時間的一貫性を高める。
実験により,本手法は視覚的に満足な色付きビデオを得るだけでなく,最先端の手法よりも時間的整合性が得られることが示された。
- 参考スコア(独自算出の注目度): 90.38674162878496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video colorization is a challenging and highly ill-posed problem. Although
recent years have witnessed remarkable progress in single image colorization,
there is relatively less research effort on video colorization and existing
methods always suffer from severe flickering artifacts (temporal inconsistency)
or unsatisfying colorization performance. We address this problem from a new
perspective, by jointly considering colorization and temporal consistency in a
unified framework. Specifically, we propose a novel temporally consistent video
colorization framework (TCVC). TCVC effectively propagates frame-level deep
features in a bidirectional way to enhance the temporal consistency of
colorization. Furthermore, TCVC introduces a self-regularization learning (SRL)
scheme to minimize the prediction difference obtained with different time
steps. SRL does not require any ground-truth color videos for training and can
further improve temporal consistency. Experiments demonstrate that our method
can not only obtain visually pleasing colorized video, but also achieve clearly
better temporal consistency than state-of-the-art methods.
- Abstract(参考訳): ビデオのカラー化は難題であり、非常に不適切な問題である。
近年では、単色化の著しい進展が見られたが、ビデオカラー化の研究は相対的に少なく、既存の手法は常に激しいフレッカーアーティファクト(一時的な不一致)や不満足なカラー化性能に苦しんでいる。
本稿では,統一フレームワークにおけるカラー化と時間的一貫性を共同で考慮し,新たな視点からこの問題に対処する。
具体的には,新しい時間整合ビデオカラー化フレームワーク(tcvc)を提案する。
TCVCは、フレームレベルの深い特徴を双方向的に効果的に伝播し、色付けの時間的一貫性を高める。
さらに、TVCは、異なる時間ステップで得られた予測差を最小限に抑えるために、自己正規化学習(SRL)方式を導入する。
srlはトレーニングに地味なカラービデオは必要とせず、時間的一貫性をさらに向上させることができる。
実験により,カラー映像を視覚的に再現するだけでなく,最先端の手法よりも明らかに良好な時間的一貫性を実現することができた。
関連論文リスト
- L-C4: Language-Based Video Colorization for Creative and Consistent Color [59.069498113050436]
創造的・一貫性のある色(L-C4)のための言語ベースビデオカラー化を提案する。
我々のモデルは、事前訓練された相互モダリティ生成モデルに基づいて構築される。
本研究では,フリックやカラーシフトを防止するために時間的に変形可能な注意点と,長期のカラー一貫性を維持するためにクロスクリップ融合を提案する。
論文 参考訳(メタデータ) (2024-10-07T12:16:21Z) - LatentColorization: Latent Diffusion-Based Speaker Video Colorization [1.2641141743223379]
ビデオのカラー化における時間的一貫性を実現するための新しいソリューションを提案する。
既存の手法と比較して,確立された画像品質指標の大幅な改善を示す。
我々のデータセットは、テレビ/映画からの従来のデータセットとビデオの組み合わせを含んでいる。
論文 参考訳(メタデータ) (2024-05-09T12:06:06Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Histogram-guided Video Colorization Structure with Spatial-Temporal
Connection [10.059070138875038]
空間時間接続構造を用いたヒストグラム誘導映像色化(ST-HVC)
色覚と運動情報を十分に活用するために、関節血流とヒストグラムモジュールを調整し、ヒストグラムとフローの特徴を統合する。
提案手法は,2つのビデオデータセットにおいて,定量的かつ質的に優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-08-09T11:59:18Z) - Improving Video Colorization by Test-Time Tuning [79.67548221384202]
テスト時間チューニングによる映像の着色性向上を目的とした,効果的な手法を提案する。
提案手法は,テスト中に追加のトレーニングサンプルを構築するための基準を利用して,PSNRにおいて平均13dBの性能向上を実現している。
論文 参考訳(メタデータ) (2023-06-25T05:36:40Z) - Video Colorization with Pre-trained Text-to-Image Diffusion Models [19.807766482434563]
ビデオカラー化のための事前訓練されたテキストから画像への潜時拡散モデルの適応であるColorDiffuserを提案する。
本稿では,時間的コヒーレンスを高め,フレーム間の色付けの鮮明さを維持するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T17:58:00Z) - Temporal Consistent Automatic Video Colorization via Semantic
Correspondence [12.107878178519128]
本稿では,セマンティック対応と自動ビデオカラー化を組み合わせた新しい映像カラー化フレームワークを提案する。
NTIRE 2023ビデオカラー化チャレンジでは,色分布一貫性(CDC)最適化トラックで3位にランクインした。
論文 参考訳(メタデータ) (2023-05-13T12:06:09Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。