論文の概要: inkn'hue: Enhancing Manga Colorization from Multiple Priors with
Alignment Multi-Encoder VAE
- arxiv url: http://arxiv.org/abs/2311.01804v2
- Date: Tue, 7 Nov 2023 15:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 12:20:57.396410
- Title: inkn'hue: Enhancing Manga Colorization from Multiple Priors with
Alignment Multi-Encoder VAE
- Title(参考訳): inkn'hue: アライメント多重エンコーダVAEによる複数プリミティブからのマンガカラー化の強化
- Authors: Tawin Jiramahapokee
- Abstract要約: マンガ色化のための特殊フレームワークを提案する。
マルチエンコーダVAEを用いたシェーディングと鮮やかな色付けに確立されたモデルを活用する。
この構造化ワークフローは、参照イメージと手動ヒントを組み込むオプションによって、明確でカラフルな結果を保証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manga, a form of Japanese comics and distinct visual storytelling, has
captivated readers worldwide. Traditionally presented in black and white,
manga's appeal lies in its ability to convey complex narratives and emotions
through intricate line art and shading. Yet, the desire to experience manga in
vibrant colors has sparked the pursuit of manga colorization, a task of
paramount significance for artists. However, existing methods, originally
designed for line art and sketches, face challenges when applied to manga.
These methods often fall short in achieving the desired results, leading to the
need for specialized manga-specific solutions. Existing approaches frequently
rely on a single training step or extensive manual artist intervention, which
can yield less satisfactory outcomes. To address these challenges, we propose a
specialized framework for manga colorization. Leveraging established models for
shading and vibrant coloring, our approach aligns both using a multi-encoder
VAE. This structured workflow ensures clear and colorful results, with the
option to incorporate reference images and manual hints.
- Abstract(参考訳): マンガは日本の漫画の一形態であり、視覚的なストーリーテリングは世界中で読者を魅了している。
伝統的に白黒で表現されるマンガの魅力は、複雑なラインアートやシェーディングを通じて複雑な物語や感情を伝える能力にある。
しかし、鮮やかな色でマンガを体験したいという願望は、アーティストにとって最重要課題であるマンガの彩色を追求するきっかけとなった。
しかし、元々ラインアートやスケッチ用に設計された既存の手法は、マンガに適用する際の課題に直面している。
これらの方法はしばしば望ましい結果を達成するのに不足しており、特殊なマンガ固有の解が必要となる。
既存のアプローチは、単一のトレーニングステップや大規模な手作業によるアーティスト介入に依存することが多い。
これらの課題に対処するために,我々はマンガの彩色のための特殊な枠組みを提案する。
シェーディングと鮮やかな色付けの確立したモデルを活用することで、マルチエンコーダVAEを用いて両者を整合させる。
この構造化ワークフローは、参照イメージと手動ヒントを組み込むオプションによって、明確でカラフルな結果を保証する。
関連論文リスト
- Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - MangaUB: A Manga Understanding Benchmark for Large Multimodal Models [25.63892470012361]
漫画(まんが)は、物語を伝えるための文体と文体を組み合わせた人気メディアである。
近年、現代の大規模マルチモーダルモデル(LMM)の適応性は、より一般的なアプローチの可能性を示している。
MangaUBは、単一のパネルに表示されるコンテンツの認識と理解を評価するとともに、複数のパネルにまたがって伝達されるように設計されている。
論文 参考訳(メタデータ) (2024-07-26T18:21:30Z) - VIP: Versatile Image Outpainting Empowered by Multimodal Large Language Model [76.02314305164595]
本研究は,ユーザの要求に応じて結果のカスタマイズが可能な,新たな画像出力フレームワークを提案する。
画像のマスキング部分とマスキング部分のテキスト記述を自動的に抽出し整理するマルチモーダル大言語モデル(MLLM)を利用する。
さらに、画像の特定の空間領域とテキストプロンプトの対応する部分との相互作用を強化するために、特別にCentral-Total-Surrounding (CTS) と呼ばれるCentral-Attentionモジュールが精巧に設計されている。
論文 参考訳(メタデータ) (2024-06-03T07:14:19Z) - SketchDeco: Decorating B&W Sketches with Colour [80.90808879991182]
本稿では,色彩の普遍的な幼児期活動に触発された,色彩のスケッチ化への新たなアプローチを紹介する。
精度と利便性のバランスを考慮し,地域マスクとカラーパレットを用いて直感的なユーザコントロールを実現する。
論文 参考訳(メタデータ) (2024-05-29T02:53:59Z) - Learning Inclusion Matching for Animation Paint Bucket Colorization [76.4507878427755]
ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
論文 参考訳(メタデータ) (2024-03-27T08:32:48Z) - Sketch2Manga: Shaded Manga Screening from Sketch with Diffusion Models [26.010509997863196]
本稿では,まずスケッチからカラーイラストを作成し,次にスクリーントーンマンガを生成する新しいスケッチ・ツー・マンガフレームワークを提案する。
本手法は, シェード型高周波数スクリーントーンを用いた高品質マンガの製作において, 既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-13T05:33:52Z) - The Manga Whisperer: Automatically Generating Transcriptions for Comics [55.544015596503726]
我々は,パネル,テキストボックス,文字ボックスを検出可能な統一モデル Magi を提案する。
本稿では,検出したテキストボックスを読み順にソートし,対話文を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-01-18T18:59:09Z) - AnimeDiffusion: Anime Face Line Drawing Colorization via Diffusion
Models [24.94532405404846]
本稿では,アニメの顔線描画色を自動生成する拡散モデルを用いたAnimeDiffusionという新しい手法を提案する。
我々は31696のトレーニングデータと579のテストデータを含むアニメの顔線描画カラー化ベンチマークデータセットを実行する。
アニメフェース描画のカラー化において,AnimeDiffusionは最先端のGANモデルよりも優れることを示す。
論文 参考訳(メタデータ) (2023-03-20T14:15:23Z) - Painting Style-Aware Manga Colorization Based on Generative Adversarial
Networks [9.495186818333815]
本稿では,GAN(Generative Adversarial Network)に基づく半自動カラー化手法を提案する。
提案手法は,スクリーントーン画像とフラットカラー画像のペアを入力として,色付き画像を出力する。
実験により,提案手法は既存手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-07-16T15:00:28Z) - Multi-Density Sketch-to-Image Translation Network [65.4028451067947]
入力スケッチは、粗い物体の輪郭からマイクロ構造まで幅広い範囲をカバーすることができる。
本手法は,顔の編集,マルチモーダルなスケッチ・ツー・フォト変換,アニメのカラー化など,様々な用途のデータセットで検証されている。
論文 参考訳(メタデータ) (2020-06-18T16:21:04Z) - MangaGAN: Unpaired Photo-to-Manga Translation Based on The Methodology
of Manga Drawing [27.99490750445691]
本稿では,GAN(Generative Adversarial Network)をベースとしたマンガGANを提案する。
マンガアーティストがいかにマンガを描くかにインスパイアされたMangaGANは、デザインされたGANモデルによってマンガの幾何学的特徴を生成する。
高品質なマンガ面を生成するために,スムーズなストロークラインへの構造的スムージングロスとノイズの多い画素の回避,および類似性保存モジュールを提案する。
論文 参考訳(メタデータ) (2020-04-22T15:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。