論文の概要: Unsupervised Image Transformation Learning via Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2103.07751v1
- Date: Sat, 13 Mar 2021 17:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:11:57.077711
- Title: Unsupervised Image Transformation Learning via Generative Adversarial
Networks
- Title(参考訳): 生成逆数ネットワークによる教師なし画像変換学習
- Authors: Kaiwen Zha, Yujun Shen, Bolei Zhou
- Abstract要約: GAN(Generative Adversarial Networks)を用いた画像集合から基底変換を学習して画像変換問題を研究する。
本稿では,生成元と識別器が共有する変換空間に画像を投影する,教師なし学習フレームワークTrGANを提案する。
- 参考スコア(独自算出の注目度): 40.84518581293321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study the image transformation problem by learning the
underlying transformations from a collection of images using Generative
Adversarial Networks (GANs). Specifically, we propose an unsupervised learning
framework, termed as TrGAN, to project images onto a transformation space that
is shared by the generator and the discriminator. Any two points in this
projected space define a transformation that can guide the image generation
process, leading to continuous semantic change. By projecting a pair of images
onto the transformation space, we are able to adequately extract the semantic
variation between them and further apply the extracted semantic to facilitating
image editing, including not only transferring image styles (e.g., changing day
to night) but also manipulating image contents (e.g., adding clouds in the
sky). Code and models are available at https://genforce.github.io/trgan.
- Abstract(参考訳): 本研究では,gans(generative adversarial network)を用いて画像の集合から基礎となる変換を学習し,画像変換問題を研究する。
具体的には、生成器と識別器が共有する変換空間に画像を投影する、TrGANと呼ばれる教師なし学習フレームワークを提案する。
この射影空間の任意の2つの点は、画像生成プロセスを導く変換を定義し、連続的な意味的変化をもたらす。
一対の画像を変換空間に投影することにより、画像間の意味的変化を適切に抽出し、抽出した意味を画像編集を容易にするために、画像スタイル(例えば、昼から夜への移動)だけでなく、画像内容(例えば、空に雲を加える)を操作することができる。
コードとモデルはhttps://genforce.github.io/trganで入手できる。
関連論文リスト
- Making Images from Images: Interleaving Denoising and Transformation [5.776000002820102]
我々は、画像の内容だけでなく、所望の画像を互いに変換するために必要なパラメータ化変換も学習する。
画像変換を学習することで、任意のソースイメージを事前に指定することができる。
従来の手法とは異なり、リージョンの数を増やすことで、この問題がより簡単になり、結果が改善される。
論文 参考訳(メタデータ) (2024-11-24T17:13:11Z) - Gradient Adjusting Networks for Domain Inversion [82.72289618025084]
StyleGAN2はセマンティック編集をサポートする強力な画像生成エンジンであることが実証された。
本稿では,画像毎の最適化手法を提案する。この手法は,生成元の重みを局所的に編集できるように,StyleGAN2ジェネレータをチューニングする。
我々の実験は、この非常にアクティブな領域における最先端技術よりも大きなパフォーマンス差を示している。
論文 参考訳(メタデータ) (2023-02-22T14:47:57Z) - Review Neural Networks about Image Transformation Based on IGC Learning
Framework with Annotated Information [13.317099281011515]
コンピュータビジョン(CV)では、多くの問題が画像変換タスク(セマンティックセグメンテーションやスタイル転送など)と見なすことができる。
一部の調査では、画像変換の一分野であるスタイル変換やイメージ・ツー・イメージ変換の研究についてのみレビューしている。
本稿では,独立学習,指導学習,協調学習を含む新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-21T07:27:47Z) - FlexIT: Towards Flexible Semantic Image Translation [59.09398209706869]
我々は,任意の入力画像とユーザが定義したテキストを編集するための新しい方法であるFlexITを提案する。
まず、FlexITは入力画像とテキストをCLIPマルチモーダル埋め込み空間内の単一のターゲットポイントに結合する。
我々は、入力画像を目標点に向けて反復的に変換し、新しい正規化用語で一貫性と品質を確保する。
論文 参考訳(メタデータ) (2022-03-09T13:34:38Z) - Linear Semantics in Generative Adversarial Networks [26.123252503846942]
GANのセマンティック表現をよりよく理解し、GANの生成プロセスにおけるセマンティック制御を可能にすることを目指しています。
よく訓練されたGANは、イメージセマンティクスを驚くほどシンプルな方法で内部機能マップにエンコードします。
Semantic-Conditional SamplingとSemantic Image Editingという2つの画像編集手法を提案する。
論文 参考訳(メタデータ) (2021-04-01T14:18:48Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z) - Semantic Image Manipulation Using Scene Graphs [105.03614132953285]
本稿では,星座変更や画像編集を直接監督する必要のないシーングラフネットワークを提案する。
これにより、追加のアノテーションを使わずに、既存の実世界のデータセットからシステムをトレーニングすることができる。
論文 参考訳(メタデータ) (2020-04-07T20:02:49Z) - In-Domain GAN Inversion for Real Image Editing [56.924323432048304]
トレーニング済みのGANジェネレータに実際のイメージを送出する一般的な方法は、遅延コードに戻すことである。
既存の反転法は、通常、画素値によってターゲット画像の再構成にフォーカスするが、反転したコードは元の潜伏空間のセマンティックドメインに着陸しない。
本稿では、入力画像を忠実に再構成し、変換されたコードが編集に意味のある意味を持つようにするためのドメイン内GAN逆変換手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T18:20:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。