論文の概要: Improving Video Colorization by Test-Time Tuning
- arxiv url: http://arxiv.org/abs/2307.11757v1
- Date: Sun, 25 Jun 2023 05:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-30 04:27:07.529618
- Title: Improving Video Colorization by Test-Time Tuning
- Title(参考訳): テストタイムチューニングによるビデオカラー化の改善
- Authors: Yaping Zhao, Haitian Zheng, Jiebo Luo, Edmund Y. Lam
- Abstract要約: テスト時間チューニングによる映像の着色性向上を目的とした,効果的な手法を提案する。
提案手法は,テスト中に追加のトレーニングサンプルを構築するための基準を利用して,PSNRにおいて平均13dBの性能向上を実現している。
- 参考スコア(独自算出の注目度): 79.67548221384202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advancements in deep learning, video colorization by propagating
color information from a colorized reference frame to a monochrome video
sequence has been well explored. However, the existing approaches often suffer
from overfitting the training dataset and sequentially lead to suboptimal
performance on colorizing testing samples. To address this issue, we propose an
effective method, which aims to enhance video colorization through test-time
tuning. By exploiting the reference to construct additional training samples
during testing, our approach achieves a performance boost of 1~3 dB in PSNR on
average compared to the baseline. Code is available at:
https://github.com/IndigoPurple/T3
- Abstract(参考訳): 深層学習の進歩に伴い、色付き参照フレームからモノクロビデオシーケンスへの色情報伝達による映像のカラー化がよく研究されている。
しかしながら、既存のアプローチでは、トレーニングデータセットの過剰な適合に苦しめられ、テストサンプルの色付けに最適でないパフォーマンスが連続的に伴うことが多い。
この問題に対処するため,テスト時間チューニングによる映像の着色性向上を目的とした効果的な手法を提案する。
本手法は,PSNRにおいて,試験中に追加のトレーニングサンプルを構築する際の基準を利用して,ベースラインと比較して平均1~3dBの性能向上を実現している。
コードは、https://github.com/IndigoPurple/T3で入手できる。
関連論文リスト
- L-C4: Language-Based Video Colorization for Creative and Consistent Color [59.069498113050436]
創造的・一貫性のある色(L-C4)のための言語ベースビデオカラー化を提案する。
我々のモデルは、事前訓練された相互モダリティ生成モデルに基づいて構築される。
本研究では,フリックやカラーシフトを防止するために時間的に変形可能な注意点と,長期のカラー一貫性を維持するためにクロスクリップ融合を提案する。
論文 参考訳(メタデータ) (2024-10-07T12:16:21Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - DiffColor: Toward High Fidelity Text-Guided Image Colorization with
Diffusion Models [12.897939032560537]
そこで我々はDiffColorと呼ばれる新しい手法を提案し、プロンプトテキストに条件付けされた鮮やかな色を復元する。
私たちはまず、CLIPベースのコントラスト損失を用いて色付き画像を生成するために、事前訓練されたテキスト・ツー・イメージ・モデルを微調整する。
次に、色付き画像とテキストプロンプトを整列した最適化されたテキスト埋め込みと、高品質な画像再構成を可能にする微調整拡散モデルを得る。
提案手法は,複数回の反復で鮮やかな多彩な色を生成でき,その構造と背景をそのままに保ちつつ,対象言語指導に適合させる。
論文 参考訳(メタデータ) (2023-08-03T09:38:35Z) - Video Colorization with Pre-trained Text-to-Image Diffusion Models [19.807766482434563]
ビデオカラー化のための事前訓練されたテキストから画像への潜時拡散モデルの適応であるColorDiffuserを提案する。
本稿では,時間的コヒーレンスを高め,フレーム間の色付けの鮮明さを維持するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T17:58:00Z) - SVCNet: Scribble-based Video Colorization Network with Temporal
Aggregation [19.566913227894997]
SVCNetは、異なるユーザ生成カラースクリブルに基づいてモノクロビデオをカラー化することができる。
カラー化の鮮明さ、時間的一貫性、色出血という、スクリブルベースのビデオカラー化領域における3つの一般的な問題に対処する。
実験の結果,SVCNetは高画質かつ時間的に一貫したビデオを生成することがわかった。
論文 参考訳(メタデータ) (2023-03-21T04:42:39Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Temporally Consistent Video Colorization with Deep Feature Propagation
and Self-regularization Learning [90.38674162878496]
時間的に一貫した新しいビデオカラー化フレームワーク(TCVC)を提案する。
TCVCは、フレームレベルの深い特徴を双方向的に効果的に伝播し、色付けの時間的一貫性を高める。
実験により,本手法は視覚的に満足な色付きビデオを得るだけでなく,最先端の手法よりも時間的整合性が得られることが示された。
論文 参考訳(メタデータ) (2021-10-09T13:00:14Z) - Image Colorization: A Survey and Dataset [94.59768013860668]
本稿では,最先端の深層学習に基づく画像着色技術に関する包括的調査を行う。
既存の着色技法を7つのクラスに分類し、その性能を規定する重要な要因について論じる。
我々は既存のデータセットと提案した画像の両方を用いて、既存の画像のカラー化手法を広範囲に実験的に評価する。
論文 参考訳(メタデータ) (2020-08-25T01:22:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。