論文の概要: Polymorphic-GAN: Generating Aligned Samples across Multiple Domains with
Learned Morph Maps
- arxiv url: http://arxiv.org/abs/2206.02903v1
- Date: Mon, 6 Jun 2022 21:03:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 14:20:01.761889
- Title: Polymorphic-GAN: Generating Aligned Samples across Multiple Domains with
Learned Morph Maps
- Title(参考訳): polymorphic-gan: 学習型モーフィックマップを用いた複数のドメインにまたがるアライメントサンプルの生成
- Authors: Seung Wook Kim, Karsten Kreis, Daiqing Li, Antonio Torralba, Sanja
Fidler
- Abstract要約: 本稿では,複数の関連ドメインから一貫した画像サンプルを同時に生成できる生成逆ネットワークを提案する。
各ドメインにまたがる共有特徴を学習するポリモルフィックGANと、各ドメインに応じて共有特徴を共有化するためのドメインごとのモルフィック層を提案する。
- 参考スコア(独自算出の注目度): 94.10535575563092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern image generative models show remarkable sample quality when trained on
a single domain or class of objects. In this work, we introduce a generative
adversarial network that can simultaneously generate aligned image samples from
multiple related domains. We leverage the fact that a variety of object classes
share common attributes, with certain geometric differences. We propose
Polymorphic-GAN which learns shared features across all domains and a
per-domain morph layer to morph shared features according to each domain. In
contrast to previous works, our framework allows simultaneous modelling of
images with highly varying geometries, such as images of human faces, painted
and artistic faces, as well as multiple different animal faces. We demonstrate
that our model produces aligned samples for all domains and show how it can be
used for applications such as segmentation transfer and cross-domain image
editing, as well as training in low-data regimes. Additionally, we apply our
Polymorphic-GAN on image-to-image translation tasks and show that we can
greatly surpass previous approaches in cases where the geometric differences
between domains are large.
- Abstract(参考訳): 現代の画像生成モデルは、単一のドメインやオブジェクトのクラスでトレーニングした場合に顕著なサンプル品質を示す。
本研究では,複数の関連ドメインから協調した画像サンプルを同時に生成できる生成逆ネットワークを提案する。
様々なオブジェクトクラスが共通の属性を共有しており、幾何的な違いがあるという事実を活用する。
本稿では,各ドメイン間の共有機能を学習し,各ドメイン毎の共有機能を実現するポリモーフィックganを提案する。
従来の研究とは対照的に,本フレームワークでは,人間の顔や絵画,芸術的顔などの高度に変化する地形と,複数の異なる動物の顔の同時モデリングを可能にしている。
本モデルでは,すべての領域に整列したサンプルを生成し,セグメンテーション転送やクロスドメイン画像編集などのアプリケーションや,低データ体制でのトレーニングにどのように使用できるかを示す。
さらに,画像から画像への変換タスクに多型GANを適用し,領域間の幾何学的差異が大きい場合,従来のアプローチを大きく超えることを示す。
関連論文リスト
- Multi-Scale Multi-Target Domain Adaptation for Angle Closure
Classification [50.658613573816254]
角度閉包分類のためのM2DAN(Multi-scale Multi-target Domain Adversarial Network)を提案する。
異なるスケールでのこれらのドメイン不変性に基づいて、ソースドメインで訓練されたディープモデルは、複数のターゲットドメインの角度クロージャを分類することができる。
論文 参考訳(メタデータ) (2022-08-25T15:27:55Z) - A Domain Gap Aware Generative Adversarial Network for Multi-domain Image
Translation [22.47113158859034]
本稿では,複数の領域にまたがって画像の変換を行う統一モデルを提案する。
単一の統一ジェネレータにより、モデルはグローバルな形状と複数のドメインにわたる局所的なテクスチャ情報との整合性を維持することができる。
論文 参考訳(メタデータ) (2021-10-21T00:33:06Z) - StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators [63.85888518950824]
生成モデルを新しいドメインに移行できるテキスト駆動方式を提案する。
自然言語のプロンプトと数分の訓練によって、我々の手法は複数のドメインにまたがってジェネレータを適応させることができることを示す。
論文 参考訳(メタデータ) (2021-08-02T14:46:46Z) - Generating Furry Cars: Disentangling Object Shape & Appearance across
Multiple Domains [46.55517346455773]
多領域にまたがる物体の形状と外観の非絡み合い表現を学習する新しいタスクを検討する。
私たちは、各ドメインからプロパティのサブセットを借りる中間分布を学習する生成モデルを学びます。
この課題は、各ドメインのオブジェクト形状、外観、背景の正確な異方性を必要とする。
論文 参考訳(メタデータ) (2021-04-05T17:59:15Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - Latent Normalizing Flows for Many-to-Many Cross-Domain Mappings [76.85673049332428]
画像とテキストの合同表現の学習は、画像キャプションのようないくつかの重要なドメイン横断タスクのバックボーンを形成する。
ドメイン間の共有情報とドメイン固有の情報を個別にモデル化する,新しい半教師付きフレームワークを提案する。
画像キャプションやテキスト・ツー・イメージ合成など,様々なタスクにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T19:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。