論文の概要: GMM-UNIT: Unsupervised Multi-Domain and Multi-Modal Image-to-Image
Translation via Attribute Gaussian Mixture Modeling
- arxiv url: http://arxiv.org/abs/2003.06788v2
- Date: Sat, 21 Mar 2020 22:15:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:56:29.901659
- Title: GMM-UNIT: Unsupervised Multi-Domain and Multi-Modal Image-to-Image
Translation via Attribute Gaussian Mixture Modeling
- Title(参考訳): GMM-UNIT:Attribute Gaussian Mixture Modelingによる教師なしマルチドメイン・マルチモーダル画像変換
- Authors: Yahui Liu, Marco De Nadai, Jian Yao, Nicu Sebe, Bruno Lepri, Xavier
Alameda-Pineda
- Abstract要約: unsupervised image-to-image translation (UNIT) は、未経験の訓練画像を用いて、複数の視覚領域間のマッピングを学習することを目的としている。
最近の研究は、複数のドメインで顕著な成功を示しているが、それらは2つの主要な制限に悩まされている。
GMM-UNITという,空間にGMMを組み込むコンテンツ属性不整合表現に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 66.50914391679375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised image-to-image translation (UNIT) aims at learning a mapping
between several visual domains by using unpaired training images. Recent
studies have shown remarkable success for multiple domains but they suffer from
two main limitations: they are either built from several two-domain mappings
that are required to be learned independently, or they generate low-diversity
results, a problem known as mode collapse. To overcome these limitations, we
propose a method named GMM-UNIT, which is based on a content-attribute
disentangled representation where the attribute space is fitted with a GMM.
Each GMM component represents a domain, and this simple assumption has two
prominent advantages. First, it can be easily extended to most multi-domain and
multi-modal image-to-image translation tasks. Second, the continuous domain
encoding allows for interpolation between domains and for extrapolation to
unseen domains and translations. Additionally, we show how GMM-UNIT can be
constrained down to different methods in the literature, meaning that GMM-UNIT
is a unifying framework for unsupervised image-to-image translation.
- Abstract(参考訳): unsupervised image-to-image translation (unit)は、非ペアトレーニングイメージを使用して、複数のビジュアルドメイン間のマッピングを学ぶことを目的としている。
最近の研究では、複数のドメインで顕著な成功を収めているが、2つの大きな制限がある。それらは、独立して学習する必要がある複数の2つのドメインマッピングから構築されるか、モード崩壊として知られる低多様性結果を生成する。
これらの制約を克服するために,属性空間にGMMを付加したコンテンツ属性不整合表現に基づくGMM-UNITという手法を提案する。
各GMMコンポーネントはドメインを表しており、この単純な仮定には2つの顕著な利点がある。
まず、ほとんどのマルチドメインおよびマルチモーダルな画像から画像への翻訳タスクに簡単に拡張できる。
第二に、連続的なドメインエンコーディングはドメイン間の補間と、見えないドメインや翻訳への外挿を可能にする。
さらに,GMM-UNITは,教師なし画像・画像翻訳のための統一フレームワークであることを示す。
関連論文リスト
- Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains [73.54897096088149]
マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
論文 参考訳(メタデータ) (2022-05-10T09:49:40Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Disentangled Unsupervised Image Translation via Restricted Information
Flow [61.44666983942965]
多くの最先端のメソッドは、所望の共有vs固有の分割をアーキテクチャにハードコードする。
帰納的アーキテクチャバイアスに依存しない新しい手法を提案する。
提案手法は,2つの合成データセットと1つの自然なデータセットに対して一貫した高い操作精度を実現する。
論文 参考訳(メタデータ) (2021-11-26T00:27:54Z) - Crossing-Domain Generative Adversarial Networks for Unsupervised
Multi-Domain Image-to-Image Translation [12.692904507625036]
複数の領域にまたがる教師なし画像間翻訳のための一般的なフレームワークを提案する。
提案するフレームワークは,一対のエンコーダと一対のGANから構成される。
論文 参考訳(メタデータ) (2020-08-27T01:54:07Z) - SoloGAN: Multi-domain Multimodal Unpaired Image-to-Image Translation via
a Single Generative Adversarial Network [4.7344504314446345]
本稿では、複数のドメイン間の効率的なマルチモーダルI2I翻訳のためのフレキシブルで汎用的なSoloGANモデルを提案する。
既存の手法とは対照的に、SoloGANアルゴリズムは追加の補助分類器を備えた単一の射影判別器を使用し、すべてのドメインに対してエンコーダとジェネレータを共有する。
論文 参考訳(メタデータ) (2020-08-04T16:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。