論文の概要: SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation
- arxiv url: http://arxiv.org/abs/2311.03866v1
- Date: Tue, 7 Nov 2023 10:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 16:00:16.192467
- Title: SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation
- Title(参考訳): SCONE-GAN: 終末画像翻訳のための意味的コントラスト学習に基づく生成的対立ネットワーク
- Authors: Iman Abbasnejad, Fabio Zambetta, Flora Salim, Timothy Wiley, Jeffrey
Chan, Russell Gallagher, Ehsan Abbasnejad
- Abstract要約: SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
- 参考スコア(独自算出の注目度): 18.93434486338439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SCONE-GAN presents an end-to-end image translation, which is shown to be
effective for learning to generate realistic and diverse scenery images. Most
current image-to-image translation approaches are devised as two mappings: a
translation from the source to target domain and another to represent its
inverse. While successful in many applications, these approaches may suffer
from generating trivial solutions with limited diversity. That is because these
methods learn more frequent associations rather than the scene structures. To
mitigate the problem, we propose SCONE-GAN that utilises graph convolutional
networks to learn the objects dependencies, maintain the image structure and
preserve its semantics while transferring images into the target domain. For
more realistic and diverse image generation we introduce style reference image.
We enforce the model to maximize the mutual information between the style image
and output. The proposed method explicitly maximizes the mutual information
between the related patches, thus encouraging the generator to produce more
diverse images. We validate the proposed algorithm for image-to-image
translation and stylizing outdoor images. Both qualitative and quantitative
results demonstrate the effectiveness of our approach on four dataset.
- Abstract(参考訳): SCONE-GANは、現実的で多様な風景画像を生成する学習に有効なエンドツーエンドの画像翻訳を提供する。
現在の画像から画像への変換アプローチのほとんどは、ソースからターゲットドメインへの変換と、その逆を表すための2つのマッピングとして考案されている。
多くのアプリケーションで成功したが、これらのアプローチは、限られた多様性を持つ自明な解を生成することに悩まされる。
これは、これらの手法がシーン構造よりも頻繁な関連を学ぶためである。
そこで本研究では,グラフ畳み込みネットワークを用いてオブジェクトの依存関係を学習し,画像構造を維持し,その意味を維持しながら対象領域に画像を転送するscone-ganを提案する。
より現実的で多様な画像生成のために、スタイル参照画像を導入する。
我々は,スタイル画像と出力の相互情報を最大化するためにモデルを強制する。
提案手法は,関連パッチ間の相互情報を明示的に最大化し,より多様な画像の生成を促す。
画像から画像への変換と屋外画像のスタイリングのためのアルゴリズムを提案する。
定性的かつ定量的な結果は,4つのデータセットに対するアプローチの有効性を示す。
関連論文リスト
- I2I-Galip: Unsupervised Medical Image Translation Using Generative Adversarial CLIP [30.506544165999564]
ペアの例が存在しないため、画像から画像への翻訳は難しい作業である。
我々はイメージ・ツー・イメージ・ジェネレーティブ・アドバイザリアル・CLIP (I2I-Galip) という新しい画像・画像変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T01:44:50Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - Domain Agnostic Image-to-image Translation using Low-Resolution
Conditioning [6.470760375991825]
ドメインが関係するきめ細かい問題に対して,ドメインに依存しないi2i法を提案する。
本稿では、生成モデルを訓練し、関連するソース画像の固有情報を共有する画像を生成する新しいアプローチを提案する。
CelebA-HQ と AFHQ のデータセット上で,視覚的品質の向上を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T19:58:49Z) - Multi-cropping Contrastive Learning and Domain Consistency for
Unsupervised Image-to-Image Translation [5.562419999563734]
マルチクロップ型コントラスト学習とドメイン整合性に基づく新しい教師なし画像から画像への翻訳フレームワーク MCDUT を提案する。
多くの画像と画像の翻訳タスクにおいて,本手法は最先端の結果を達成し,その利点は比較実験とアブレーション研究によって証明されている。
論文 参考訳(メタデータ) (2023-04-24T16:20:28Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Retrieval Guided Unsupervised Multi-domain Image-to-Image Translation [59.73535607392732]
画像から画像への変換は、ある視覚領域から別の領域へ画像を変換するマッピングを学ぶことを目的としている。
本稿では,画像から画像への変換作業を支援するための画像検索システムを提案する。
論文 参考訳(メタデータ) (2020-08-11T20:11:53Z) - Multimodal Image-to-Image Translation via Mutual Information Estimation
and Maximization [16.54980086211836]
マルチモーダル画像画像変換 (Multimodal image-to-image translation, I2IT) は、ソース領域の入力画像が与えられた対象領域内の複数の可能な画像を探索する条件分布を学習することを目的としている。
このような条件分布をモデル化するために、条件生成逆ネットワーク(cGAN)がよく用いられる。
本稿では,cGANにおける潜在コードと出力画像間の相互情報を明示的に推定し,最大化する手法を提案する。
論文 参考訳(メタデータ) (2020-08-08T14:09:23Z) - Edge Guided GANs with Contrastive Learning for Semantic Image Synthesis [194.1452124186117]
本稿では,難解なセマンティック画像合成タスクのための新しいECGANを提案する。
我々のECGANは最先端の手法よりもはるかに優れた結果が得られる。
論文 参考訳(メタデータ) (2020-03-31T01:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。