論文の概要: Enhanced Anime Image Generation Using USE-CMHSA-GAN
- arxiv url: http://arxiv.org/abs/2411.11179v1
- Date: Sun, 17 Nov 2024 21:25:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:35:20.791342
- Title: Enhanced Anime Image Generation Using USE-CMHSA-GAN
- Title(参考訳): USE-CMHSA-GANを用いたアニメ画像生成
- Authors: J. Lu,
- Abstract要約: 本稿では,高品質なアニメキャラクタ画像を生成するために,新しいジェネレーティブ・アドバイサル・ネットワークモデルUSE-CMHSA-GANを提案する。
アニメ対面データセットを用いて実験を行い, USE-CMHSA-GANが他のベンチマークモデルより優れていることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: With the growing popularity of ACG (Anime, Comics, and Games) culture, generating high-quality anime character images has become an important research topic. This paper introduces a novel Generative Adversarial Network model, USE-CMHSA-GAN, designed to produce high-quality anime character images. The model builds upon the traditional DCGAN framework, incorporating USE and CMHSA modules to enhance feature extraction capabilities for anime character images. Experiments were conducted on the anime-face-dataset, and the results demonstrate that USE-CMHSA-GAN outperforms other benchmark models, including DCGAN, VAE-GAN, and WGAN, in terms of FID and IS scores, indicating superior image quality. These findings suggest that USE-CMHSA-GAN is highly effective for anime character image generation and provides new insights for further improving the quality of generative models.
- Abstract(参考訳): ACG(アニメ、コミック、ゲーム)文化の普及に伴い、高品質なアニメキャラクターイメージの生成が重要な研究トピックとなっている。
本稿では,高品質なアニメキャラクタ画像を生成するために,新しいジェネレーティブ・アドバイサル・ネットワークモデルUSE-CMHSA-GANを提案する。
このモデルは従来のDCGANフレームワークの上に構築され、USEとCMHSAモジュールを組み込んでアニメキャラクタ画像の特徴抽出機能を強化する。
アニメ・フェイス・データセットを用いて実験を行い, USE-CMHSA-GANがDCGAN, VAE-GAN, WGANなどの他のベンチマークモデルよりも優れた画像品質を示した。
これらの結果から,USE-CMHSA-GANはアニメキャラクタ生成に極めて有効であることが示唆され,生成モデルの品質向上に新たな知見が得られた。
関連論文リスト
- The Dawn of KAN in Image-to-Image (I2I) Translation: Integrating Kolmogorov-Arnold Networks with GANs for Unpaired I2I Translation [0.0]
Kolmogorov-Arnold Network (KAN)は、生成AIにおける多層パーセプトロン(MLP)を効果的に置き換えることができる。
より広範な生成型AIドメインにおいて、Kanは貴重なコンポーネントになり得る、と研究は示唆している。
論文 参考訳(メタデータ) (2024-08-15T15:26:12Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - StyleAvatar3D: Leveraging Image-Text Diffusion Models for High-Fidelity
3D Avatar Generation [103.88928334431786]
高品質な3Dアバターを製作するための新しい手法を提案する。
データ生成には事前学習した画像テキスト拡散モデルとGANベースの3次元生成ネットワークを用いて訓練を行う。
提案手法は、生産されたアバターの視覚的品質と多様性の観点から、現在の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-30T13:09:21Z) - Generative Adversarial Networks for Image Super-Resolution: A Survey [101.39605080291783]
単一画像超解像(SISR)は画像処理の分野で重要な役割を果たしている。
近年のGAN(Generative Adversarial Network)は,小サンプルを用いた低解像度画像に対して優れた結果が得られる。
本稿では,異なる視点からGANの比較研究を行う。
論文 参考訳(メタデータ) (2022-04-28T16:35:04Z) - PetsGAN: Rethinking Priors for Single Image Generation [29.213169685303495]
SinGANは、単一のイメージの内部パッチ分布を徐々に学習するために、GANのピラミッドを構築する。
高レベルの情報がないため、SinGANはオブジェクトイメージをうまく扱えない。
本手法は,時間を要するプログレッシブトレーニングスキームを排除し,エンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2022-03-03T02:31:50Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - A Generic Approach for Enhancing GANs by Regularized Latent Optimization [79.00740660219256]
本稿では,事前学習したGANを効果的かつシームレスに拡張できる,エミュレーティブモデル推論と呼ばれる汎用フレームワークを提案する。
我々の基本的な考え方は、ワッサーシュタイン勾配流法を用いて与えられた要求に対する最適潜時分布を効率的に推算することである。
論文 参考訳(メタデータ) (2021-12-07T05:22:50Z) - Enhancement of Anime Imaging Enlargement using Modified Super-Resolution
CNN [0.0]
本稿では,画像の特徴を抽出し,画像を拡大し,アニメ画像の品質を高めるために,畳み込みニューラルネットワークに基づくモデルを提案する。
実験の結果,既存の画像拡大法やSRCNN法と比較すると,画像サイズを大きくして画像品質を向上させることができた。
論文 参考訳(メタデータ) (2021-10-05T19:38:50Z) - CAGAN: Text-To-Image Generation with Combined Attention GANs [70.3497683558609]
テキスト記述に基づく写真リアルな画像を生成するために,CAGAN(Combined Attention Generative Adversarial Network)を提案する。
提案されたCAGANは2つの注意モデルを用いている:関連語に条件付きで異なる部分領域を描画する単語注意と、チャネル間の非線形相互作用をキャプチャする絞りと励起の注意である。
スペクトル正規化によるトレーニングの安定化により、提案したCAGANは、CUBデータセット上のISとFID、より困難なCOCOデータセット上のFIDの技術を改良する。
論文 参考訳(メタデータ) (2021-04-26T15:46:40Z) - Anime-to-Real Clothing: Cosplay Costume Generation via Image-to-Image
Translation [2.4660652494309936]
本稿では,画像から画像への変換に基づく衣装画像の自動生成手法を提案する。
本稿では、高品質なコスプレ画像生成を容易にするために、GAN(Generative Adversarial Network)のための新しいアーキテクチャを提案する。
実験により,2種類の評価指標を用いて,提案したGANは既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-08-26T10:34:46Z) - Image Augmentations for GAN Training [57.65145659417266]
我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
論文 参考訳(メタデータ) (2020-06-04T00:16:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。