論文の概要: Unifying conditional and unconditional semantic image synthesis with
OCO-GAN
- arxiv url: http://arxiv.org/abs/2211.14105v1
- Date: Fri, 25 Nov 2022 13:43:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:11:33.984958
- Title: Unifying conditional and unconditional semantic image synthesis with
OCO-GAN
- Title(参考訳): OCO-GANを用いた条件的・非条件的意味画像合成
- Authors: Marl\`ene Careil, St\'ephane Lathuili\`ere, Camille Couprie, Jakob
Verbeek
- Abstract要約: 両タスクを統一的に処理するOCO-GAN(Optionally Conditioned GAN)を提案する。
共有識別器によるエンドツーエンドのアプローチでは、両タスク間の相乗効果を活用することができる。
我々の結果は、非条件モデルと条件モデルに特化している最先端技術よりも、競争力があるか、あるいは優れている。
- 参考スコア(独自算出の注目度): 29.77186837186815
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative image models have been extensively studied in recent years. In the
unconditional setting, they model the marginal distribution from unlabelled
images. To allow for more control, image synthesis can be conditioned on
semantic segmentation maps that instruct the generator the position of objects
in the image. While these two tasks are intimately related, they are generally
studied in isolation. We propose OCO-GAN, for Optionally COnditioned GAN, which
addresses both tasks in a unified manner, with a shared image synthesis network
that can be conditioned either on semantic maps or directly on latents. Trained
adversarially in an end-to-end approach with a shared discriminator, we are
able to leverage the synergy between both tasks. We experiment with Cityscapes,
COCO-Stuff, ADE20K datasets in a limited data, semi-supervised and full data
regime and obtain excellent performance, improving over existing hybrid models
that can generate both with and without conditioning in all settings. Moreover,
our results are competitive or better than state-of-the art specialised
unconditional and conditional models.
- Abstract(参考訳): 近年,生成画像モデルが広く研究されている。
非条件条件設定では、非競合画像の限界分布をモデル化する。
さらなる制御を可能にするために、画像合成は、画像内のオブジェクトの位置を生成者に指示するセマンティックセグメンテーションマップで条件付けることができる。
これら2つのタスクは密接な関係にあるが、一般的には単独で研究されている。
我々は,OCO-GAN(Optionally Conditioned GAN)を提案する。OCO-GANは両タスクを統一的に処理し,セマンティックマップや潜伏者に直接条件付け可能な共有画像合成ネットワークである。
共有識別器を用いたエンドツーエンドアプローチで逆向きに訓練することで、両方のタスク間の相乗効果を活用できる。
cityscapes、coco-stuff、ade20kデータセットを限られたデータ、半教師あり、完全なデータレジームで実験し、優れたパフォーマンスを得るとともに、すべての設定で条件付きおよび無条件の両方を生成できる既存のハイブリッドモデルよりも優れたパフォーマンスを得る。
さらに,本研究の結果は,非条件モデルや条件モデルに特化している最先端技術よりも優れている。
関連論文リスト
- Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Controllable Image Generation via Collage Representations [31.456445433105415]
ミラー・アンド・マッチングシーン(M&Ms)とは、コラージュ内の異なる要素の外観的特徴と空間的位置を条件とした、逆向きに訓練された生成画像モデルからなるアプローチである。
M&Mは、画質とサンプルの多様性の点で非常に競争力がありながら、きめ細かなシーン制御性の観点から、ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-26T17:58:39Z) - Composer: Creative and Controllable Image Synthesis with Composable
Conditions [57.78533372393828]
ビッグデータで学んだ最近の大規模な生成モデルは、驚くべき画像を合成できるが、制御性は限られている。
この研究は、合成品質とモデルの創造性を維持しつつ、空間配置やパレットのような出力画像の柔軟な制御を可能にする新しい世代パラダイムを提供する。
論文 参考訳(メタデータ) (2023-02-20T05:48:41Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Co-Training for Unsupervised Domain Adaptation of Semantic Segmentation
Models [0.0]
セマンティックセグメンテーションモデルの合成-実 UDA のための新しい協調学習法を提案する。
共同トレーニングでは,mIoUの15~20ポイントがベースライン上で改善されている。
論文 参考訳(メタデータ) (2022-05-31T13:30:36Z) - Instance-Conditioned GAN [26.27527697877534]
GAN(Generative Adversarial Networks)は、人間の顔のような狭い領域で、ほぼリアルな画像を生成する。
我々は,カーネル密度推定手法から着想を得て,複雑なデータセットの分布をモデル化するための非パラメトリックアプローチを導入する。
論文 参考訳(メタデータ) (2021-09-10T19:08:45Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - Example-Guided Image Synthesis across Arbitrary Scenes using Masked
Spatial-Channel Attention and Self-Supervision [83.33283892171562]
実例誘導画像合成は,最近セマンティックラベルマップと模範画像から画像を合成するために試みられている。
本稿では,ラベルマップと意味的に異なる任意のシーンイメージを例に,より困難で汎用的な課題に取り組む。
本稿では,グローバル・ローカルな特徴アライメントと合成のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-18T18:17:40Z) - Multimodal Image Synthesis with Conditional Implicit Maximum Likelihood
Estimation [54.17177006826262]
我々はImplicit Maximum Likelihood Estimation (IMLE)に基づく新しい一般条件画像合成法を開発した。
我々は,シーンレイアウトからの単一画像超解像と画像合成という,2つのタスクにおけるマルチモーダル画像合成性能の改善を実証した。
論文 参考訳(メタデータ) (2020-04-07T03:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。