論文の概要: Painting Style-Aware Manga Colorization Based on Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2107.07943v1
- Date: Fri, 16 Jul 2021 15:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 14:32:34.111309
- Title: Painting Style-Aware Manga Colorization Based on Generative Adversarial
Networks
- Title(参考訳): 生成的逆ネットワークに基づく絵画スタイルアウェアマンガ彩色
- Authors: Yugo Shimizu, Ryosuke Furuta, Delong Ouyang, Yukinobu Taniguchi, Ryota
Hinami, Shonosuke Ishiwatari
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)に基づく半自動カラー化手法を提案する。
提案手法は,スクリーントーン画像とフラットカラー画像のペアを入力として,色付き画像を出力する。
実験により,提案手法は既存手法よりも優れた性能を示すことが示された。
- 参考スコア(独自算出の注目度): 9.495186818333815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Japanese comics (called manga) are traditionally created in monochrome
format. In recent years, in addition to monochrome comics, full color comics, a
more attractive medium, have appeared. Unfortunately, color comics require
manual colorization, which incurs high labor costs. Although automatic
colorization methods have been recently proposed, most of them are designed for
illustrations, not for comics. Unlike illustrations, since comics are composed
of many consecutive images, the painting style must be consistent. To realize
consistent colorization, we propose here a semi-automatic colorization method
based on generative adversarial networks (GAN); the method learns the painting
style of a specific comic from small amount of training data. The proposed
method takes a pair of a screen tone image and a flat colored image as input,
and outputs a colorized image. Experiments show that the proposed method
achieves better performance than the existing alternatives.
- Abstract(参考訳): 日本の漫画(漫画)は伝統的にモノクロ形式で作られている。
近年では、モノクロ漫画に加えて、より魅力的なメディアであるフルカラー漫画が登場している。
残念なことに、カラーコミックは手作業で着色する必要があるため、高い労働コストがかかる。
近年,自動着色手法が提案されているが,そのほとんどが漫画ではなくイラストとしてデザインされている。
イラストとは異なり、漫画は多くの連続したイメージで構成されているため、絵のスタイルは一貫していなければならない。
そこで本研究では,gan(generative adversarial networks)に基づく半自動カラー化手法を提案する。
提案手法では,画面トーン画像とフラットカラー画像の対を入力として,カラー画像を出力する。
実験の結果,提案手法は既存手法よりも優れた性能が得られることがわかった。
関連論文リスト
- Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - Learning Inclusion Matching for Animation Paint Bucket Colorization [76.4507878427755]
ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
論文 参考訳(メタデータ) (2024-03-27T08:32:48Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - inkn'hue: Enhancing Manga Colorization from Multiple Priors with
Alignment Multi-Encoder VAE [0.0]
マンガ色化のための特殊フレームワークを提案する。
マルチエンコーダVAEを用いたシェーディングと鮮やかな色付けに確立されたモデルを活用する。
この構造化ワークフローは、参照イメージと手動ヒントを組み込むオプションによって、明確でカラフルな結果を保証する。
論文 参考訳(メタデータ) (2023-11-03T09:33:32Z) - AnimeDiffusion: Anime Face Line Drawing Colorization via Diffusion
Models [24.94532405404846]
本稿では,アニメの顔線描画色を自動生成する拡散モデルを用いたAnimeDiffusionという新しい手法を提案する。
我々は31696のトレーニングデータと579のテストデータを含むアニメの顔線描画カラー化ベンチマークデータセットを実行する。
アニメフェース描画のカラー化において,AnimeDiffusionは最先端のGANモデルよりも優れることを示す。
論文 参考訳(メタデータ) (2023-03-20T14:15:23Z) - Inversion-Based Style Transfer with Diffusion Models [78.93863016223858]
以前の任意の例として誘導された芸術的画像生成法は、しばしば形状変化の制御や要素の伝達に失敗する。
画像のキー情報を効率よく正確に学習できるインバージョンベースのスタイル転送手法(InST)を提案する。
論文 参考訳(メタデータ) (2022-11-23T18:44:25Z) - Towards Photorealistic Colorization by Imagination [48.82757902812846]
本稿では,人間の想像力を模倣した画像の自動色付け手法を提案する。
我々の研究は、最先端の画像カラー化手法よりも、よりカラフルで多彩な結果をもたらす。
論文 参考訳(メタデータ) (2021-08-20T14:28:37Z) - Reference-Based Sketch Image Colorization using Augmented-Self Reference
and Dense Semantic Correspondence [32.848390767305276]
本稿では,すでに色のついた参照画像が与えられたスケッチ画像の自動着色作業に取り組む。
仮想参照として幾何学的歪みを持つ同一画像を有効利用することにより、色付き出力画像の基底真理を確保できる。
論文 参考訳(メタデータ) (2020-05-11T15:52:50Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。