論文の概要: MISS GAN: A Multi-IlluStrator Style Generative Adversarial Network for
image to illustration translation
- arxiv url: http://arxiv.org/abs/2108.05693v1
- Date: Thu, 12 Aug 2021 12:23:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:44:47.229815
- Title: MISS GAN: A Multi-IlluStrator Style Generative Adversarial Network for
image to illustration translation
- Title(参考訳): MISS GAN:画像から図形への変換のための多言語スタイル生成支援ネットワーク
- Authors: Noa Barzilay, Tal Berkovitz Shalev, Raja Giryes
- Abstract要約: MISS GAN(Multi-IlluStrator Style Generative Adversarial Network)は、教師なし画像から画像への変換のためのフレームワークである。
MISS GANは入力画像固有であり、訓練された1つのモデルのみを使用して他の画像の情報を使用する。
- 参考スコア(独自算出の注目度): 39.57350884615545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised style transfer that supports diverse input styles using only one
trained generator is a challenging and interesting task in computer vision.
This paper proposes a Multi-IlluStrator Style Generative Adversarial Network
(MISS GAN) that is a multi-style framework for unsupervised
image-to-illustration translation, which can generate styled yet content
preserving images. The illustrations dataset is a challenging one since it is
comprised of illustrations of seven different illustrators, hence contains
diverse styles. Existing methods require to train several generators (as the
number of illustrators) to handle the different illustrators' styles, which
limits their practical usage, or require to train an image specific network,
which ignores the style information provided in other images of the
illustrator. MISS GAN is both input image specific and uses the information of
other images using only one trained model.
- Abstract(参考訳): 訓練されたジェネレータ1つだけで様々な入力スタイルをサポートする教師なしのスタイル転送は、コンピュータビジョンにおいて挑戦的で興味深いタスクです。
本稿では, 教師なし画像合成のためのマルチスタイルフレームワークであるMISS GAN(Multi-IlluStrator Style Generative Adversarial Network)を提案する。
イラストレーションデータセットは、7つの異なるイラストレーターのイラストで構成されているため、さまざまなスタイルを含んでいるため、難しい。
既存の方法は、様々なイラストレーターのスタイルを扱うために複数のジェネレータ(イラストレーターの数など)を訓練するか、あるいはイラストレーターの他の画像に提供されるスタイル情報を無視するイメージ特定ネットワークを訓練する必要がある。
MISS GANは入力画像固有であり、訓練された1つのモデルのみを使用して他の画像の情報を使用する。
関連論文リスト
- Ada-adapter:Fast Few-shot Style Personlization of Diffusion Model with Pre-trained Image Encoder [57.574544285878794]
Ada-Adapterは拡散モデルの少数ショットスタイルのパーソナライズのための新しいフレームワークである。
提案手法は,単一の参照画像を用いたゼロショット方式の効率的な転送を可能にする。
フラットアートや3Dレンダリング,ロゴデザインなど,さまざまな芸術的スタイルに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-08T02:00:17Z) - Customize StyleGAN with One Hand Sketch [0.0]
本稿では,単一のユーザスケッチでスタイルGAN画像を制御するフレームワークを提案する。
我々は、エネルギーベース学習により、事前学習したStyleGANモデルの潜在空間における条件分布を学習する。
我々のモデルは、入力スケッチにセマンティックに整合したマルチモーダル画像を生成することができる。
論文 参考訳(メタデータ) (2023-10-29T09:32:33Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Looks Like Magic: Transfer Learning in GANs to Generate New Card
Illustrations [5.006086647446482]
MTGという名の新しいデータセットを導入し、多様なカードタイプから数千のイラストを出し、メタデータが豊富です。
我々は、DCGANのような単純なモデルでは、任意の設定で適切な図形を生成することを学べないことを示す。
StyleGan2の事前訓練済みの機能がターゲットドメインにどの程度転送できるかを理解するために実験を行う。
論文 参考訳(メタデータ) (2022-05-28T14:02:09Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - StyleGAN of All Trades: Image Manipulation with Only Pretrained StyleGAN [17.93566359555703]
事前訓練されたStyleGANといくつかの操作で、様々なタスクで最先端のメソッドと互換性があることを示す。
提案手法は単純で効率的であり,既存のStyleGANモデルにも適用可能である。
論文 参考訳(メタデータ) (2021-11-02T14:31:22Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - Generating Embroidery Patterns Using Image-to-Image Translation [2.055949720959582]
そこで本研究では,2つの機械学習手法を用いて刺刺画像から画像への変換を行う。
私たちのゴールは、ユーザのアップロードした画像から、刺青画像に似たプレビュー画像を生成することです。
実験結果から,これらの手法がユーザ画像の刺青バージョンを近似したプレビュー生成に成功していることが示された。
論文 参考訳(メタデータ) (2020-03-05T20:32:40Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z) - MW-GAN: Multi-Warping GAN for Caricature Generation with Multi-Style
Geometric Exaggeration [53.98437317161086]
入力顔写真が与えられた場合、キャラクチュア生成の目標は、写真と同じアイデンティティを共有するスタイリングされた、誇張されたキャラクチュアを作ることである。
本稿では,MW-GAN(Multi-Warping GAN)と呼ばれる,スタイルネットワークと幾何学的ネットワークを含む新しいフレームワークを提案する。
実験により, MW-GANが生成する似顔絵は, 既存の方法よりも優れた品質を示すことが示された。
論文 参考訳(メタデータ) (2020-01-07T03:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。