論文の概要: Linear Semantics in Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2104.00487v1
- Date: Thu, 1 Apr 2021 14:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 21:38:43.187644
- Title: Linear Semantics in Generative Adversarial Networks
- Title(参考訳): 生成逆ネットワークにおける線形意味論
- Authors: Jianjin Xu, Changxi Zheng
- Abstract要約: GANのセマンティック表現をよりよく理解し、GANの生成プロセスにおけるセマンティック制御を可能にすることを目指しています。
よく訓練されたGANは、イメージセマンティクスを驚くほどシンプルな方法で内部機能マップにエンコードします。
Semantic-Conditional SamplingとSemantic Image Editingという2つの画像編集手法を提案する。
- 参考スコア(独自算出の注目度): 26.123252503846942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) are able to generate high-quality
images, but it remains difficult to explicitly specify the semantics of
synthesized images. In this work, we aim to better understand the semantic
representation of GANs, and thereby enable semantic control in GAN's generation
process. Interestingly, we find that a well-trained GAN encodes image semantics
in its internal feature maps in a surprisingly simple way: a linear
transformation of feature maps suffices to extract the generated image
semantics. To verify this simplicity, we conduct extensive experiments on
various GANs and datasets; and thanks to this simplicity, we are able to learn
a semantic segmentation model for a trained GAN from a small number (e.g., 8)
of labeled images. Last but not least, leveraging our findings, we propose two
few-shot image editing approaches, namely Semantic-Conditional Sampling and
Semantic Image Editing. Given a trained GAN and as few as eight semantic
annotations, the user is able to generate diverse images subject to a
user-provided semantic layout, and control the synthesized image semantics. We
have made the code publicly available.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は高品質な画像を生成することができるが、合成画像の意味を明示することは困難である。
本研究では,GANのセマンティック表現をよりよく理解し,GANの生成プロセスにおけるセマンティック制御を実現することを目的とする。
興味深いことに、よく訓練されたganは、内部特徴マップのイメージセマンティクスを驚くほど単純な方法でエンコードしている。
この単純さを検証するために、さまざまなGANとデータセットに関する広範な実験を行い、この単純さのおかげで、ラベル付き画像の少ない数(8)からトレーニングされたGANのセマンティックセマンティックセマンティックセマンティクスモデルを学ぶことができる。
最後に,本研究の成果を活かし,意味条件サンプリングと意味画像編集という2つの手法を提案する。
トレーニングされたGANと8つのセマンティックアノテーションが与えられた場合、ユーザは、ユーザが提供するセマンティックレイアウトの対象となる多様なイメージを生成し、合成されたイメージセマンティクスを制御することができる。
私たちはそのコードを公開しました。
関連論文リスト
- SemFlow: Binding Semantic Segmentation and Image Synthesis via Rectified Flow [94.90853153808987]
セマンティックセグメンテーション(Semantic segmentation)とセマンティックイメージ合成(Semantic image synthesis)は、視覚知覚と生成において代表的なタスクである。
我々は、統一されたフレームワーク(SemFlow)を提案し、それらを2つの逆問題としてモデル化する。
実験の結果,セマンティックセグメンテーションとセマンティック画像合成タスクにおいて,セマンティックセグメンテーションと競合する結果が得られた。
論文 参考訳(メタデータ) (2024-05-30T17:34:40Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Extracting Semantic Knowledge from GANs with Unsupervised Learning [65.32631025780631]
GAN(Generative Adversarial Networks)は、特徴写像のセマンティクスを線形に分離可能な形でエンコードする。
本稿では,線形分離性を利用してGANの特徴をクラスタリングする新しいクラスタリングアルゴリズムKLiSHを提案する。
KLiSHは、さまざまなオブジェクトのデータセットに基づいてトレーニングされたGANのきめ細かいセマンティクスの抽出に成功している。
論文 参考訳(メタデータ) (2022-11-30T03:18:16Z) - RepMix: Representation Mixing for Robust Attribution of Synthesized
Images [15.698564265127432]
本稿では,その意味的内容に不変なイメージをマッチングできるソリューションを提案する。
次に,表現混合と新たな損失に基づくGANフィンガープリント技術であるRepMixを提案する。
提案手法は,意味的一般化とロバスト性の両方において,既存のGANフィンガープリント作業から大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2022-07-05T14:14:06Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - FlexIT: Towards Flexible Semantic Image Translation [59.09398209706869]
我々は,任意の入力画像とユーザが定義したテキストを編集するための新しい方法であるFlexITを提案する。
まず、FlexITは入力画像とテキストをCLIPマルチモーダル埋め込み空間内の単一のターゲットポイントに結合する。
我々は、入力画像を目標点に向けて反復的に変換し、新しい正規化用語で一貫性と品質を確保する。
論文 参考訳(メタデータ) (2022-03-09T13:34:38Z) - Navigating the GAN Parameter Space for Semantic Image Editing [35.622710993417456]
Generative Adversarial Networks (GAN) はビジュアル編集に必須のツールである。
本稿では,StyleGAN2のような最先端のモデルで実現可能な視覚効果の範囲を大きく広げる。
論文 参考訳(メタデータ) (2020-11-27T15:38:56Z) - Controllable Image Synthesis via SegVAE [89.04391680233493]
セマンティックマップは条件付き画像生成の中間表現として一般的に使用される。
本研究では,所望のカテゴリからなるラベルセットを与えられたセマンティックマップの生成を特に対象とする。
提案するフレームワークSegVAEは,条件付き変分オートエンコーダを用いて,セマンティックマップを反復的に合成する。
論文 参考訳(メタデータ) (2020-07-16T15:18:53Z) - Edge Guided GANs with Contrastive Learning for Semantic Image Synthesis [194.1452124186117]
本稿では,難解なセマンティック画像合成タスクのための新しいECGANを提案する。
我々のECGANは最先端の手法よりもはるかに優れた結果が得られる。
論文 参考訳(メタデータ) (2020-03-31T01:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。