論文の概要: Video Color Grading via Look-Up Table Generation
- arxiv url: http://arxiv.org/abs/2508.00548v1
- Date: Fri, 01 Aug 2025 11:43:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.857048
- Title: Video Color Grading via Look-Up Table Generation
- Title(参考訳): ルックアップテーブル生成によるビデオカラーグレーディング
- Authors: Seunghyun Shin, Dongmin Shin, Jisu Shin, Hae-Gon Jeon, Joon-Young Lee,
- Abstract要約: 本稿では,参照型ビデオカラーグレーティングフレームワークを提案する。
私たちのキーとなるアイデアは、参照シーンと入力ビデオ間の色属性アライメントのためのルックアップテーブル(LUT)を明示的に生成することです。
トレーニングの目的として、参照シーンのルック、ムード、感情などの高レベルな特徴は、入力ビデオと類似すべきである。
- 参考スコア(独自算出の注目度): 38.14578948732577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Different from color correction and transfer, color grading involves adjusting colors for artistic or storytelling purposes in a video, which is used to establish a specific look or mood. However, due to the complexity of the process and the need for specialized editing skills, video color grading remains primarily the domain of professional colorists. In this paper, we present a reference-based video color grading framework. Our key idea is explicitly generating a look-up table (LUT) for color attribute alignment between reference scenes and input video via a diffusion model. As a training objective, we enforce that high-level features of the reference scenes like look, mood, and emotion should be similar to that of the input video. Our LUT-based approach allows for color grading without any loss of structural details in the whole video frames as well as achieving fast inference. We further build a pipeline to incorporate a user-preference via text prompts for low-level feature enhancement such as contrast and brightness, etc. Experimental results, including extensive user studies, demonstrate the effectiveness of our approach for video color grading. Codes are publicly available at https://github.com/seunghyuns98/VideoColorGrading.
- Abstract(参考訳): 色補正や移動とは異なり、カラーグレーディングは、特定のルックやムードを確立するために使用されるビデオにおいて、芸術的またはストーリーテリングの目的のために色を調整することを含む。
しかし、プロセスの複雑さと専門的な編集スキルの必要性から、ビデオカラーグレーディングは主にプロのカラーリストの領域に留まっている。
本稿では,参照型ビデオカラーグレーティングフレームワークを提案する。
私たちのキーとなるアイデアは、参照シーンとインプットビデオ間の色属性アライメントを拡散モデルにより明示的にルックアップテーブル(LUT)を生成することです。
トレーニングの目的として、参照シーンのルック、ムード、感情などの高レベルな特徴は、入力ビデオと類似すべきである。
LUTベースのアプローチにより、ビデオフレーム全体の構造的詳細を損なうことなく、カラーグレーディングが可能となり、高速な推論が可能になった。
さらに、コントラストや明るさといった低レベルの機能強化のために、テキストプロンプトを介してユーザ推奨を組み込むパイプラインを構築します。
広汎なユーザスタディを含む実験結果から,ビデオカラーグレーディングにおけるアプローチの有効性が示された。
コードはhttps://github.com/seunghyuns98/VideoColorGrading.comで公開されている。
関連論文リスト
- AnimeColor: Reference-based Animation Colorization with Diffusion Transformers [9.64847784171945]
アニメーションのカラー化はアニメーション制作において重要な役割を担っているが、既存の手法では色精度と時間的一貫性を達成するのに苦労している。
We propose textbfAnimeColor, a novel reference-based animation colorization framework using Diffusion Transformers (DiT)。
提案手法はスケッチシーケンスをDiTに基づくビデオ拡散モデルに統合し,スケッチ制御によるアニメーション生成を可能にする。
論文 参考訳(メタデータ) (2025-07-27T07:25:08Z) - VanGogh: A Unified Multimodal Diffusion-based Framework for Video Colorization [53.35016574938809]
ビデオのカラー化は、時間的一貫性と構造的整合性を維持しながら、グレースケールのビデオを鮮やかな色表現に変換することを目的としている。
既存のビデオカラー化法は、しばしば色出血に悩まされ、包括的な制御が欠如している。
我々はVanGoghを紹介した。VanGoghはビデオカラー化のためのマルチモーダル拡散に基づく統合フレームワークである。
論文 参考訳(メタデータ) (2025-01-16T12:20:40Z) - DreamColour: Controllable Video Colour Editing without Training [80.90808879991182]
直感的なインタフェースにより、正確な映像色編集を可能にする訓練不要のフレームワークを提案する。
色編集の空間的側面と時間的側面を分離することにより、ユーザの自然なワークフローをより良く整合させることができる。
当社のアプローチは、トレーニングや特別なハードウェアの必要性を排除しつつ、最先端の手法に適合または超越しています。
論文 参考訳(メタデータ) (2024-12-06T16:57:54Z) - Learning Inclusion Matching for Animation Paint Bucket Colorization [76.4507878427755]
ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
論文 参考訳(メタデータ) (2024-03-27T08:32:48Z) - Improving Video Colorization by Test-Time Tuning [79.67548221384202]
テスト時間チューニングによる映像の着色性向上を目的とした,効果的な手法を提案する。
提案手法は,テスト中に追加のトレーニングサンプルを構築するための基準を利用して,PSNRにおいて平均13dBの性能向上を実現している。
論文 参考訳(メタデータ) (2023-06-25T05:36:40Z) - Video Colorization with Pre-trained Text-to-Image Diffusion Models [19.807766482434563]
ビデオカラー化のための事前訓練されたテキストから画像への潜時拡散モデルの適応であるColorDiffuserを提案する。
本稿では,時間的コヒーレンスを高め,フレーム間の色付けの鮮明さを維持するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T17:58:00Z) - RecolorNeRF: Layer Decomposed Radiance Fields for Efficient Color
Editing of 3D Scenes [21.284044381058575]
本稿では,ニューラルラジアンスフィールドのための新しいユーザフレンドリーなカラー編集手法であるRecolorNeRFを提案する。
私たちのキーとなるアイデアは、シーンを純粋な色の層に分解し、パレットを形成することです。
効率的なパレットベースの編集をサポートするには、各レイヤの色を可能な限り表現する必要がある。
論文 参考訳(メタデータ) (2023-01-19T09:18:06Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。