論文の概要: NCST: Neural-based Color Style Transfer for Video Retouching
- arxiv url: http://arxiv.org/abs/2411.00335v1
- Date: Fri, 01 Nov 2024 03:25:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:50:45.040696
- Title: NCST: Neural-based Color Style Transfer for Video Retouching
- Title(参考訳): NCST:ビデオリタッチのためのニューラルベースカラースタイル転送
- Authors: Xintao Jiang, Yaosen Chen, Siqin Zhang, Wei Wang, Xuming Wen,
- Abstract要約: ビデオカラー転送は、参照スタイル画像を用いて、オリジナルビデオの色スタイルを変換することを目的としている。
既存のほとんどの手法ではニューラルネットワークを採用しており、不透明な転送プロセスのような課題が伴っている。
2つの画像を用いて色調伝達のパラメータを推定する手法を提案する。
- 参考スコア(独自算出の注目度): 3.2050418539021774
- License:
- Abstract: Video color style transfer aims to transform the color style of an original video by using a reference style image. Most existing methods employ neural networks, which come with challenges like opaque transfer processes and limited user control over the outcomes. Typically, users cannot fine-tune the resulting images or videos. To tackle this issue, we introduce a method that predicts specific parameters for color style transfer using two images. Initially, we train a neural network to learn the corresponding color adjustment parameters. When applying style transfer to a video, we fine-tune the network with key frames from the video and the chosen style image, generating precise transformation parameters. These are then applied to convert the color style of both images and videos. Our experimental results demonstrate that our algorithm surpasses current methods in color style transfer quality. Moreover, each parameter in our method has a specific, interpretable meaning, enabling users to understand the color style transfer process and allowing them to perform manual fine-tuning if desired.
- Abstract(参考訳): ビデオカラー転送は、参照スタイル画像を用いて、オリジナルビデオの色スタイルを変換することを目的としている。
既存のほとんどの手法ではニューラルネットワークを採用しており、不透明な転送プロセスや、結果に対するユーザコントロールの制限といった課題が伴っている。
通常、ユーザーは結果の画像やビデオを微調整することはできない。
この問題に対処するために,2つの画像を用いて色調伝達のパラメータを推定する手法を提案する。
まず、ニューラルネットワークをトレーニングして、対応する色調整パラメータを学習する。
ビデオにスタイル転送を適用する際、ビデオと選択したスタイル画像からキーフレームでネットワークを微調整し、正確な変換パラメータを生成する。
これらは、画像とビデオの両方の色スタイルを変換するために適用される。
実験結果から,本アルゴリズムはカラースタイルの転送品質において,現在の手法を超越していることが示された。
さらに,本手法の各パラメータは特定の解釈可能な意味を持ち,ユーザがカラースタイルの転送プロセスを理解し,必要に応じて手動微調整を行えるようにしている。
関連論文リスト
- Training-free Color-Style Disentanglement for Constrained Text-to-Image Synthesis [16.634138745034733]
そこで本研究では,参照画像から色とスタイル属性のテキスト・ツー・イメージを分離する,最初のトレーニングフリーでテスト時間のみの手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T04:16:58Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - Neural Preset for Color Style Transfer [46.66925849502683]
本稿では,既存のカラースタイル転送手法の限界に対処するニューラルプレセット手法を提案する。
提案手法は2つのコア設計に基づいており,まず,各画素に対して連続的に動作する決定論的ニューラルカラーマッピング(DNCM)を提案する。
第2に、タスクをカラー正規化とスタイル化に分割することで、2段階のパイプラインを構築する。
論文 参考訳(メタデータ) (2023-03-23T17:59:10Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - CAMS: Color-Aware Multi-Style Transfer [46.550390398057985]
スタイル転送は、ソースイメージ("content"イメージ)の外観を操作して、ターゲットの"style"イメージの類似したテクスチャと色を共有することを目的としている。
スタイルの転送を支援するために一般的に用いられるアプローチは、グラム行列最適化に基づいている。
スタイルと生成した画像のスタイルと色との相関を保ちながら、美的満足な結果を生成する色認識多形転写法を提案する。
論文 参考訳(メタデータ) (2021-06-26T01:15:09Z) - StyTr^2: Unbiased Image Style Transfer with Transformers [59.34108877969477]
イメージスタイル転送の目的は、オリジナルコンテンツを維持しながら、スタイル参照によってガイドされた芸術的特徴を持つ画像をレンダリングすることである。
従来のニューラルスタイルの転送法は通常バイアスを受けており、コンテントリークは、同じ参照画像でスタイル転送プロセスの何回かの実行によって観察することができる。
我々は、この重要な問題に対処するために、トランスフォーマーベースのアプローチ、すなわちStyTr2を提案する。
論文 参考訳(メタデータ) (2021-05-30T15:57:09Z) - Deep Preset: Blending and Retouching Photos with Color Style Transfer [15.95010869939508]
我々は、低レベル画像変換、特に色調変換の学習に焦点をあて、次いで、地軸で色調変換を訓練する新しいスキームを提案する。
1)自然色のあるコンテンツから参照に色変換を表す特徴を一般化し、その特徴を内容の文脈的特徴にブレンドするように設計されている。
写真編集の強力なツールであるLightroomを使って、Flick2Kデータセットから1200のイメージと、69の設定で500のユーザ生成プリセットを使用して、60万のトレーニングサンプルを生成する。
論文 参考訳(メタデータ) (2020-07-21T10:41:03Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。