論文の概要: GANime: Generating Anime and Manga Character Drawings from Sketches with Deep Learning
- arxiv url: http://arxiv.org/abs/2508.09207v1
- Date: Sun, 10 Aug 2025 02:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.616949
- Title: GANime: Generating Anime and Manga Character Drawings from Sketches with Deep Learning
- Title(参考訳): GANime: 深層学習によるスケッチからアニメとマンガキャラクタの描画を生成する
- Authors: Tai Vu, Robert Yang,
- Abstract要約: 本稿では,アニメキャラクタとスケッチ間の画像間変換の3つのモデルについて検討する。
C-GANは、人間によって作成された画像に近い高品質で高解像度の画像を生成することができる最も効果的なモデルである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The process of generating fully colorized drawings from sketches is a large, usually costly bottleneck in the manga and anime industry. In this study, we examine multiple models for image-to-image translation between anime characters and their sketches, including Neural Style Transfer, C-GAN, and CycleGAN. By assessing them qualitatively and quantitatively, we find that C-GAN is the most effective model that is able to produce high-quality and high-resolution images close to those created by humans.
- Abstract(参考訳): スケッチから完全に彩色された絵を生成するプロセスは、マンガやアニメ業界では大きなボトルネックとなることが多い。
本研究では,アニメキャラクタとスケッチ間の画像・画像の変換モデルについて,ニューラルスタイル転送,C-GAN,サイクロンGANなどについて検討した。
定性的かつ定量的に評価することで、C-GANは人間によって作成された画像に近い高品質で高解像度の画像を生成することができる最も効果的なモデルであることが判明した。
関連論文リスト
- Enhanced Anime Image Generation Using USE-CMHSA-GAN [0.0]
本稿では,高品質なアニメキャラクタ画像を生成するために,新しいジェネレーティブ・アドバイサル・ネットワークモデルUSE-CMHSA-GANを提案する。
アニメ対面データセットを用いて実験を行い, USE-CMHSA-GANが他のベンチマークモデルより優れていることを示した。
論文 参考訳(メタデータ) (2024-11-17T21:25:24Z) - Sketch2Manga: Shaded Manga Screening from Sketch with Diffusion Models [26.010509997863196]
本稿では,まずスケッチからカラーイラストを作成し,次にスクリーントーンマンガを生成する新しいスケッチ・ツー・マンガフレームワークを提案する。
本手法は, シェード型高周波数スクリーントーンを用いた高品質マンガの製作において, 既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-13T05:33:52Z) - AniFaceDrawing: Anime Portrait Exploration during Your Sketching [9.933240729830151]
本稿では,ユーザによるアニメ肖像画作成を支援する人工知能の活用方法について述べる。
入力は、ストロークによって徐々に洗練される不完全なフリーハンドスケッチのシーケンスである。
出力は、入力スケッチに対応する高品質なアニメのポートレートのシーケンスである。
論文 参考訳(メタデータ) (2023-06-13T00:43:47Z) - DiffSketching: Sketch Control Image Synthesis with Diffusion Models [10.172753521953386]
スケッチ・ツー・イメージ合成のためのディープラーニングモデルは、視覚的な詳細なしに歪んだ入力スケッチを克服する必要がある。
我々のモデルは、クロスドメイン制約を通じてスケッチにマッチし、画像合成をより正確に導くために分類器を使用する。
我々のモデルは、生成品質と人的評価の点でGANベースの手法に勝ることができ、大規模なスケッチ画像データセットに依存しない。
論文 参考訳(メタデータ) (2023-05-30T07:59:23Z) - Picture that Sketch: Photorealistic Image Generation from Abstract
Sketches [109.69076457732632]
この論文は、あなたや私のような訓練を受けていないアマチュアの抽象的で変形した普通のスケッチから、それをフォトリアリスティックなイメージに変えます。
まず、エッジマップのようなスケッチを指示するのではなく、抽象的なフリーハンドな人間のスケッチで作業することを目指しています。
そうすることで、スケッチから写真までのパイプラインを民主化し、スケッチがどれだけよいかに関わらず、スケッチを"写真化"します。
論文 参考訳(メタデータ) (2023-03-20T14:49:03Z) - AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised
Anime Face Generation [84.52819242283852]
本稿では,肖像画をアニメ化するための新しい枠組みを提案する。
私たちの目標は、特定の参照アニメフェイスとスタイル一貫性のあるアニメフェイスを合成することです。
既存の方法は、しばしば参照アニメフェイスのスタイルを転送したり、生成された顔の局所的な形状に顕著なアーティファクトや歪みを導入することに失敗する。
論文 参考訳(メタデータ) (2021-02-24T22:47:38Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - MangaGAN: Unpaired Photo-to-Manga Translation Based on The Methodology
of Manga Drawing [27.99490750445691]
本稿では,GAN(Generative Adversarial Network)をベースとしたマンガGANを提案する。
マンガアーティストがいかにマンガを描くかにインスパイアされたMangaGANは、デザインされたGANモデルによってマンガの幾何学的特徴を生成する。
高品質なマンガ面を生成するために,スムーズなストロークラインへの構造的スムージングロスとノイズの多い画素の回避,および類似性保存モジュールを提案する。
論文 参考訳(メタデータ) (2020-04-22T15:23:42Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。