論文の概要: Anime-to-Real Clothing: Cosplay Costume Generation via Image-to-Image
Translation
- arxiv url: http://arxiv.org/abs/2008.11479v1
- Date: Wed, 26 Aug 2020 10:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 22:04:20.871146
- Title: Anime-to-Real Clothing: Cosplay Costume Generation via Image-to-Image
Translation
- Title(参考訳): アニメから現実への服:画像から画像への翻訳によるコスプレ衣装生成
- Authors: Koya Tango, Marie Katsurai, Hayato Maki, Ryosuke Goto
- Abstract要約: 本稿では,画像から画像への変換に基づく衣装画像の自動生成手法を提案する。
本稿では、高品質なコスプレ画像生成を容易にするために、GAN(Generative Adversarial Network)のための新しいアーキテクチャを提案する。
実験により,2種類の評価指標を用いて,提案したGANは既存手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 2.4660652494309936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cosplay has grown from its origins at fan conventions into a billion-dollar
global dress phenomenon. To facilitate imagination and reinterpretation from
animated images to real garments, this paper presents an automatic costume
image generation method based on image-to-image translation. Cosplay items can
be significantly diverse in their styles and shapes, and conventional methods
cannot be directly applied to the wide variation in clothing images that are
the focus of this study. To solve this problem, our method starts by collecting
and preprocessing web images to prepare a cleaned, paired dataset of the anime
and real domains. Then, we present a novel architecture for generative
adversarial networks (GANs) to facilitate high-quality cosplay image
generation. Our GAN consists of several effective techniques to fill the gap
between the two domains and improve both the global and local consistency of
generated images. Experiments demonstrated that, with two types of evaluation
metrics, the proposed GAN achieves better performance than existing methods. We
also showed that the images generated by the proposed method are more realistic
than those generated by the conventional methods. Our codes and pretrained
model are available on the web.
- Abstract(参考訳): cosplayはファンコンベンションの始まりから10億ドルの世界的なドレス現象へと成長してきた。
アニメーション画像から実際の衣服への想像と解釈を容易にするために,画像から画像への変換に基づく自動衣装画像生成手法を提案する。
cosplayのアイテムはスタイルや形状がかなり多様であり、従来の手法は、この研究の焦点である衣服画像の幅広いバリエーションに直接適用することはできない。
この問題を解決するために,本手法では,アニメ領域と実領域のクリーンなペアデータセットを作成するために,web画像の収集と前処理から始める。
次に,高品質コスプレ画像生成を容易にするために,gans(generative adversarial network)のための新しいアーキテクチャを提案する。
我々のGANは2つの領域間のギャップを埋め、生成した画像のグローバルな一貫性と局所的な一貫性を改善するために、いくつかの効果的な技術から構成されている。
実験により,2種類の評価指標を用いて,提案したGANは既存手法よりも優れた性能を示した。
また,提案手法により生成された画像は,従来の手法よりもリアルであることを示した。
私たちのコードと事前訓練されたモデルは、Webで利用可能です。
関連論文リスト
- FashionR2R: Texture-preserving Rendered-to-Real Image Translation with Diffusion Models [14.596090302381647]
本稿では,レンダリングの制御に基づく拡散モデルから生成するパワーを利用して,レンダリング画像のフォトリアリズム向上について検討する。
ドメイン知識注入(Domain Knowledge Injection, DKI)と現実画像生成(Realistic Image Generation, RIG)という2つの段階から構成される。
論文 参考訳(メタデータ) (2024-10-18T12:48:22Z) - Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Scenimefy: Learning to Craft Anime Scene via Semi-Supervised
Image-to-Image Translation [75.91455714614966]
そこで我々は,新しい半教師付き画像-画像間翻訳フレームワークであるScenimefyを提案する。
提案手法は,構造に一貫性のある擬似ペアデータによる学習を導く。
スタイル化と細部を改善するために、パッチワイドのコントラストスタイルロスが導入されている。
論文 参考訳(メタデータ) (2023-08-24T17:59:50Z) - Weakly Supervised High-Fidelity Clothing Model Generation [67.32235668920192]
本稿では,このシナリオに対応するために,DGP (Deep Generative Projection) と呼ばれる安価でスケーラブルな弱教師付き手法を提案する。
衣服と身体の粗いアライメントをStyleGAN空間に投影することで、フォトリアリスティックな着用結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-14T07:15:15Z) - AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised
Anime Face Generation [84.52819242283852]
本稿では,肖像画をアニメ化するための新しい枠組みを提案する。
私たちの目標は、特定の参照アニメフェイスとスタイル一貫性のあるアニメフェイスを合成することです。
既存の方法は、しばしば参照アニメフェイスのスタイルを転送したり、生成された顔の局所的な形状に顕著なアーティファクトや歪みを導入することに失敗する。
論文 参考訳(メタデータ) (2021-02-24T22:47:38Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Domain Adaptation for Image Dehazing [72.15994735131835]
既存のほとんどの方法は、合成ヘイズ画像のデハージングモデルを訓練するが、ドメインシフトによる実際のヘイズ画像の一般化は困難である。
画像変換モジュールと2つの画像デハージングモジュールからなるドメイン適応パラダイムを提案する。
実世界の合成画像と実世界の画像の両方で実験結果から,我々のモデルは最先端の脱ハージングアルゴリズムに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-05-10T13:54:56Z) - GarmentGAN: Photo-realistic Adversarial Fashion Transfer [0.0]
GarmentGANは、生成的敵対的な方法で画像ベースの衣服転送を行う。
このフレームワークでは、購入前に仮想的に試行して、さまざまなアパレルタイプに一般化することができる。
論文 参考訳(メタデータ) (2020-03-04T05:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。