論文の概要: TimeColor: Flexible Reference Colorization via Temporal Concatenation
- arxiv url: http://arxiv.org/abs/2601.00296v1
- Date: Thu, 01 Jan 2026 10:30:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.367272
- Title: TimeColor: Flexible Reference Colorization via Temporal Concatenation
- Title(参考訳): TimeColor: 時間結合によるフレキシブルリファレンスカラー化
- Authors: Bryan Constantine Sadihin, Yihao Meng, Michael Hua Wang, Matteo Jiahao Chen, Hang Su,
- Abstract要約: TimeColorはスケッチベースのビデオカラー化モデルである。
TimeColorは、時間的に拡散された遅延フレームをエンコードし、各ステップで同時に処理できるようにする。
実験により、TimeColorは以前のベースラインよりも色の忠実度、アイデンティティの整合性、時間的安定性を向上させることが示された。
- 参考スコア(独自算出の注目度): 12.270750223921276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most colorization models condition only on a single reference, typically the first frame of the scene. However, this approach ignores other sources of conditional data, such as character sheets, background images, or arbitrary colorized frames. We propose TimeColor, a sketch-based video colorization model that supports heterogeneous, variable-count references with the use of explicit per-reference region assignment. TimeColor encodes references as additional latent frames which are concatenated temporally, permitting them to be processed concurrently in each diffusion step while keeping the model's parameter count fixed. TimeColor also uses spatiotemporal correspondence-masked attention to enforce subject-reference binding in addition to modality-disjoint RoPE indexing. These mechanisms mitigate shortcutting and cross-identity palette leakage. Experiments on SAKUGA-42M under both single- and multi-reference protocols show that TimeColor improves color fidelity, identity consistency, and temporal stability over prior baselines.
- Abstract(参考訳): ほとんどのカラー化モデルは、通常シーンの最初のフレームである単一の参照のみを条件にしている。
しかし、このアプローチは文字シートや背景画像、任意の色付けフレームなど、他の条件データソースを無視している。
そこで我々はTimeColorというスケッチベースのビデオカラー化モデルを提案する。
TimeColorは参照を時間的に連結した潜在フレームとしてエンコードし、モデルのパラメータ数を固定しながら各拡散ステップで並列に処理できるようにする。
TimeColorはまた、時空間対応マズードアテンションを使用して、モダリティ非共役RoPEインデックスに加え、主観参照バインディングを強制する。
これらのメカニズムはショートカットとクロスアイデンティティパレットリークを緩和する。
SAKUGA-42Mのシングルおよびマルチ参照プロトコルによる実験により、TimeColorは以前のベースラインよりも色の忠実度、アイデンティティの整合性、時間的安定性を改善することが示された。
関連論文リスト
- ColorFlow: Retrieval-Augmented Image Sequence Colorization [65.93834649502898]
産業用途における画像シーケンスのカラー化に適した3段階拡散に基づくフレームワークを提案する。
IDごとの微調整や明示的なID埋め込み抽出を必要とする既存の手法とは異なり、我々は新たにRetrieval Augmented Colorization Pipelineを提案する。
パイプラインには、カラーアイデンティティ抽出のためのブランチと、カラー化のためのブランチという、デュアルブランチ設計も備えています。
論文 参考訳(メタデータ) (2024-12-16T14:32:49Z) - Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - L-C4: Language-Based Video Colorization for Creative and Consistent Color [59.069498113050436]
創造的・一貫性のある色(L-C4)のための言語ベースビデオカラー化を提案する。
我々のモデルは、事前訓練された相互モダリティ生成モデルに基づいて構築される。
本研究では,フリックやカラーシフトを防止するために時間的に変形可能な注意点と,長期のカラー一貫性を維持するためにクロスクリップ融合を提案する。
論文 参考訳(メタデータ) (2024-10-07T12:16:21Z) - Training-free Color-Style Disentanglement for Constrained Text-to-Image Synthesis [16.634138745034733]
そこで本研究では,参照画像から色とスタイル属性のテキスト・ツー・イメージを分離する,最初のトレーニングフリーでテスト時間のみの手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T04:16:58Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Temporal Consistent Automatic Video Colorization via Semantic
Correspondence [12.107878178519128]
本稿では,セマンティック対応と自動ビデオカラー化を組み合わせた新しい映像カラー化フレームワークを提案する。
NTIRE 2023ビデオカラー化チャレンジでは,色分布一貫性(CDC)最適化トラックで3位にランクインした。
論文 参考訳(メタデータ) (2023-05-13T12:06:09Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Reference-Based Video Colorization with Spatiotemporal Correspondence [8.472559058510205]
時間対応を考慮した参照型ビデオカラー化フレームワークを提案する。
色を参照するために時間的関連領域を制限することで、ビデオ全体を通して忠実な色を伝播する。
論文 参考訳(メタデータ) (2020-11-25T05:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。