論文の概要: Sketch2Manga: Shaded Manga Screening from Sketch with Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.08266v1
- Date: Wed, 13 Mar 2024 05:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:15:53.487261
- Title: Sketch2Manga: Shaded Manga Screening from Sketch with Diffusion Models
- Title(参考訳): Sketch2Manga: 拡散モデルによるスケッチからのシェードマンガスクリーニング
- Authors: Jian Lin, Xueting Liu, Chengze Li, Minshan Xie, Tien-Tsin Wong
- Abstract要約: 本稿では,まずスケッチからカラーイラストを作成し,次にスクリーントーンマンガを生成する新しいスケッチ・ツー・マンガフレームワークを提案する。
本手法は, シェード型高周波数スクリーントーンを用いた高品質マンガの製作において, 既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 26.010509997863196
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: While manga is a popular entertainment form, creating manga is tedious,
especially adding screentones to the created sketch, namely manga screening.
Unfortunately, there is no existing method that tailors for automatic manga
screening, probably due to the difficulty of generating high-quality shaded
high-frequency screentones. The classic manga screening approaches generally
require user input to provide screentone exemplars or a reference manga image.
The recent deep learning models enables the automatic generation by learning
from a large-scale dataset. However, the state-of-the-art models still fail to
generate high-quality shaded screentones due to the lack of a tailored model
and high-quality manga training data. In this paper, we propose a novel
sketch-to-manga framework that first generates a color illustration from the
sketch and then generates a screentoned manga based on the intensity guidance.
Our method significantly outperforms existing methods in generating
high-quality manga with shaded high-frequency screentones.
- Abstract(参考訳): マンガはエンターテイメントとして人気があるが、マンガの制作は面倒であり、特にマンガのスクリーニングというスケッチにスクリーントーンが加えられている。
残念なことに、おそらく高品質の日陰高頻度スクリーントンを生成するのが難しいため、自動マンガスクリーニングの調整方法が存在しない。
古典的なマンガスクリーニング手法は、通常、スクリーントーンの例や参照マンガのイメージを提供するためにユーザー入力を必要とする。
最近のディープラーニングモデルは、大規模なデータセットから学習することで自動生成を可能にする。
しかし、最先端のモデルでは、調整されたモデルと高品質なマンガトレーニングデータがないため、高品質なシェード・スクリーントーンの生成に失敗している。
本稿では,まずスケッチからカラーイラストを作成し,その強度誘導に基づいてスクリーントーンマンガを生成する新しいスケッチ・ツー・マンガフレームワークを提案する。
本手法は, シェード型高周波数スクリーントーンを用いた高品質マンガの製作において, 既存の手法よりも優れていた。
関連論文リスト
- The Manga Whisperer: Automatically Generating Transcriptions for Comics [55.544015596503726]
我々は,パネル,テキストボックス,文字ボックスを検出可能な統一モデル Magi を提案する。
本稿では,検出したテキストボックスを読み順にソートし,対話文を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-01-18T18:59:09Z) - inkn'hue: Enhancing Manga Colorization from Multiple Priors with
Alignment Multi-Encoder VAE [0.0]
マンガ色化のための特殊フレームワークを提案する。
マルチエンコーダVAEを用いたシェーディングと鮮やかな色付けに確立されたモデルを活用する。
この構造化ワークフローは、参照イメージと手動ヒントを組み込むオプションによって、明確でカラフルな結果を保証する。
論文 参考訳(メタデータ) (2023-11-03T09:33:32Z) - Deep Geometrized Cartoon Line Inbetweening [98.35956631655357]
インベントワイニングは、2つの白黒線図の間の中間フレームを生成する。
画像全体のマッチングとワープに依存する既存のフレームメソッドは、ラインインテワイニングには適していない。
本稿では,AnimeInbetを提案する。これは幾何学的な線描画をエンドポイントにジオメトリし,グラフ融合問題としてインベントワイニングタスクを再構成する。
本手法は,線画の細部と細部を包含しながら,線画の細部と特異な構造を効果的に捉えることができる。
論文 参考訳(メタデータ) (2023-09-28T17:50:05Z) - SketchMetaFace: A Learning-based Sketching Interface for High-fidelity
3D Character Face Modeling [69.28254439393298]
SketchMetaFaceは、アマチュアユーザーを対象に、高忠実度3D顔を数分でモデリングするスケッチシステムである。
我々は"Implicit and Depth Guided Mesh Modeling"(IDGMM)と呼ばれる新しい学習ベース手法を開発した。
メッシュ、暗黙、深度表現の利点を融合させ、高い効率で高品質な結果を達成する。
論文 参考訳(メタデータ) (2023-07-03T07:41:07Z) - Screentone-Aware Manga Super-Resolution Using DeepLearning [3.0638744222997034]
高品質な画像は送信を妨げ、視聴体験に影響を与える可能性がある。
従来のベクトル化法では、スクリーントーンの処理にかなりの量の手動パラメータ調整が必要となる。
超高解像度画像は、低透過率を維持し、高品質な結果を提供するとともに、高解像度画像を高解像度画像に変換することができる。
論文 参考訳(メタデータ) (2023-05-15T03:24:36Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - MARVEL: Raster Manga Vectorization via Primitive-wise Deep Reinforcement
Learning [29.14983719525674]
漫画(まんが)は、白黒のストロークで構成され、デジタル機器のイメージとして一般的に見られる、流行の日本風の漫画形式である。
深部強化学習(DRL)によるマンガベクトル化のためのプリミティブワイドアプローチであるMARVELを提案する。
画像全体のベクトルパラメータを予測する従来の学習ベース手法とは異なり、MARVELはマンガ全体を基本的なプリミティブテキストダッシュストロークラインの集合と見なす新しい視点を導入する。
論文 参考訳(メタデータ) (2021-10-10T15:52:38Z) - Exploiting Aliasing for Manga Restoration [14.978972444431832]
劣化したマンガから品質ビットマンガを復元する革新的な二段階法を提案する。
まず, スケール推定ネットワーク(SE-Net)を用いて, 劣化マンガから目標分解能を予測する。
そして、目標解像度で、マンガリカバリーネットワーク(MR-Net)を介して、地域単位のバイトンスクリーントーンを復元します。
論文 参考訳(メタデータ) (2021-05-14T13:47:04Z) - B\'ezierSketch: A generative model for scalable vector sketches [132.5223191478268]
B'ezierSketchは、完全ベクトルスケッチのための新しい生成モデルであり、自動的にスケーラブルで高解像度である。
まず,各ストロークを最適なB'ezier曲線に埋め込むようにエンコーダを訓練する。
これにより、スケッチをパラマタライズされたストロークの短いシーケンスとして扱うことができ、これにより、より長いスケッチのために、より多くのキャパシティを持つ再帰的なスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2020-07-04T21:30:52Z) - MangaGAN: Unpaired Photo-to-Manga Translation Based on The Methodology
of Manga Drawing [27.99490750445691]
本稿では,GAN(Generative Adversarial Network)をベースとしたマンガGANを提案する。
マンガアーティストがいかにマンガを描くかにインスパイアされたMangaGANは、デザインされたGANモデルによってマンガの幾何学的特徴を生成する。
高品質なマンガ面を生成するために,スムーズなストロークラインへの構造的スムージングロスとノイズの多い画素の回避,および類似性保存モジュールを提案する。
論文 参考訳(メタデータ) (2020-04-22T15:23:42Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。