論文の概要: Dual-Domain Image Synthesis using Segmentation-Guided GAN
- arxiv url: http://arxiv.org/abs/2204.09015v1
- Date: Tue, 19 Apr 2022 17:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 14:52:02.135116
- Title: Dual-Domain Image Synthesis using Segmentation-Guided GAN
- Title(参考訳): セグメンテーション誘導ganを用いたデュアルドメイン画像合成
- Authors: Dena Bazazian, Andrew Calway, Dima Damen
- Abstract要約: 2つの異なる領域の特徴を統合した画像合成のためのセグメンテーション誘導手法を提案する。
我々の二重領域モデルで合成された画像は、セマンティックマスク内の1つの領域に属し、残りの領域では別の領域に属します。
- 参考スコア(独自算出の注目度): 33.00724627120716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a segmentation-guided approach to synthesise images that
integrate features from two distinct domains. Images synthesised by our
dual-domain model belong to one domain within the semantic mask, and to another
in the rest of the image - smoothly integrated. We build on the successes of
few-shot StyleGAN and single-shot semantic segmentation to minimise the amount
of training required in utilising two domains. The method combines a few-shot
cross-domain StyleGAN with a latent optimiser to achieve images containing
features of two distinct domains. We use a segmentation-guided perceptual loss,
which compares both pixel-level and activations between domain-specific and
dual-domain synthetic images. Results demonstrate qualitatively and
quantitatively that our model is capable of synthesising dual-domain images on
a variety of objects (faces, horses, cats, cars), domains (natural, caricature,
sketches) and part-based masks (eyes, nose, mouth, hair, car bonnet). The code
is publicly available at:
https://github.com/denabazazian/Dual-Domain-Synthesis.
- Abstract(参考訳): 2つの異なる領域の特徴を統合した画像合成のためのセグメンテーション誘導手法を提案する。
我々の二重ドメインモデルによって合成された画像は、セマンティックマスク内の1つのドメインに属し、残りの画像内のもう1つのドメインはスムーズに統合される。
2つのドメインを利用するのに必要なトレーニング量を最小化するために、数ショットのStyleGANとシングルショットのセマンティックセグメンテーションの成功に基づいて構築する。
この方法は、2つの異なるドメインの特徴を含む画像を実現するために、数ショットのクロスドメインスタイルGANと潜在オプティマイザを組み合わせる。
ピクセルレベルとアクティベーションの両方をドメイン固有の合成画像とデュアルドメイン合成画像で比較したセグメンテーション誘導知覚損失を用いる。
その結果, 顔, 馬, 猫, 車, ドメイン (自然, 似顔絵, スケッチ) , 部品ベースのマスク (目, 鼻, 口, 髪, カーボンネット) で, 両領域の画像を合成できることが, 定性的かつ定量的に証明された。
コードは、https://github.com/denabazazian/Dual-Domain-Synthesisで公開されている。
関連論文リスト
- SynCDR : Training Cross Domain Retrieval Models with Synthetic Data [69.26882668598587]
クロスドメイン検索では、同じ意味圏から2つの視覚領域にまたがるイメージを識別するためにモデルが必要である。
我々は、これらの欠落したカテゴリの例を満たすために、ドメイン間で合成データを生成する方法を示す。
最高のSynCDRモデルは、先行技術よりも最大15%パフォーマンスが向上します。
論文 参考訳(メタデータ) (2023-12-31T08:06:53Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Disentangled Unsupervised Image Translation via Restricted Information
Flow [61.44666983942965]
多くの最先端のメソッドは、所望の共有vs固有の分割をアーキテクチャにハードコードする。
帰納的アーキテクチャバイアスに依存しない新しい手法を提案する。
提案手法は,2つの合成データセットと1つの自然なデータセットに対して一貫した高い操作精度を実現する。
論文 参考訳(メタデータ) (2021-11-26T00:27:54Z) - Crossing-Domain Generative Adversarial Networks for Unsupervised
Multi-Domain Image-to-Image Translation [12.692904507625036]
複数の領域にまたがる教師なし画像間翻訳のための一般的なフレームワークを提案する。
提案するフレームワークは,一対のエンコーダと一対のGANから構成される。
論文 参考訳(メタデータ) (2020-08-27T01:54:07Z) - SoloGAN: Multi-domain Multimodal Unpaired Image-to-Image Translation via
a Single Generative Adversarial Network [4.7344504314446345]
本稿では、複数のドメイン間の効率的なマルチモーダルI2I翻訳のためのフレキシブルで汎用的なSoloGANモデルを提案する。
既存の手法とは対照的に、SoloGANアルゴリズムは追加の補助分類器を備えた単一の射影判別器を使用し、すべてのドメインに対してエンコーダとジェネレータを共有する。
論文 参考訳(メタデータ) (2020-08-04T16:31:15Z) - GMM-UNIT: Unsupervised Multi-Domain and Multi-Modal Image-to-Image
Translation via Attribute Gaussian Mixture Modeling [66.50914391679375]
unsupervised image-to-image translation (UNIT) は、未経験の訓練画像を用いて、複数の視覚領域間のマッピングを学習することを目的としている。
最近の研究は、複数のドメインで顕著な成功を示しているが、それらは2つの主要な制限に悩まされている。
GMM-UNITという,空間にGMMを組み込むコンテンツ属性不整合表現に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-03-15T10:18:56Z) - Latent Normalizing Flows for Many-to-Many Cross-Domain Mappings [76.85673049332428]
画像とテキストの合同表現の学習は、画像キャプションのようないくつかの重要なドメイン横断タスクのバックボーンを形成する。
ドメイン間の共有情報とドメイン固有の情報を個別にモデル化する,新しい半教師付きフレームワークを提案する。
画像キャプションやテキスト・ツー・イメージ合成など,様々なタスクにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T19:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。