論文の概要: Crossing-Domain Generative Adversarial Networks for Unsupervised
Multi-Domain Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2008.11882v1
- Date: Thu, 27 Aug 2020 01:54:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 08:19:34.340525
- Title: Crossing-Domain Generative Adversarial Networks for Unsupervised
Multi-Domain Image-to-Image Translation
- Title(参考訳): 教師なしマルチドメイン画像-画像変換のためのクロスドメイン生成対向ネットワーク
- Authors: Xuewen Yang, Dongliang Xie, Xin Wang
- Abstract要約: 複数の領域にまたがる教師なし画像間翻訳のための一般的なフレームワークを提案する。
提案するフレームワークは,一対のエンコーダと一対のGANから構成される。
- 参考スコア(独自算出の注目度): 12.692904507625036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art techniques in Generative Adversarial Networks (GANs) have
shown remarkable success in image-to-image translation from peer domain X to
domain Y using paired image data. However, obtaining abundant paired data is a
non-trivial and expensive process in the majority of applications. When there
is a need to translate images across n domains, if the training is performed
between every two domains, the complexity of the training will increase
quadratically. Moreover, training with data from two domains only at a time
cannot benefit from data of other domains, which prevents the extraction of
more useful features and hinders the progress of this research area. In this
work, we propose a general framework for unsupervised image-to-image
translation across multiple domains, which can translate images from domain X
to any a domain without requiring direct training between the two domains
involved in image translation. A byproduct of the framework is the reduction of
computing time and computing resources, since it needs less time than training
the domains in pairs as is done in state-of-the-art works. Our proposed
framework consists of a pair of encoders along with a pair of GANs which learns
high-level features across different domains to generate diverse and realistic
samples from. Our framework shows competing results on many image-to-image
tasks compared with state-of-the-art techniques.
- Abstract(参考訳): GAN(Generative Adversarial Networks)における最先端技術は、ペア画像データを用いたピアドメインXからドメインYへの画像変換において顕著な成功を収めている。
しかし、豊富なペアデータを得ることは、ほとんどのアプリケーションにおいて非自明で高価なプロセスである。
n個の領域にまたがる画像の翻訳が必要な場合、トレーニングが2つのドメイン間で行われる場合、トレーニングの複雑さは二次的に増加する。
さらに、2つのドメインからのデータのみを一度にトレーニングすることは、他のドメインのデータから利益を得ることができないため、より有用な特徴の抽出を防ぎ、この研究領域の進歩を妨げる。
本研究では,複数の領域にまたがる教師なしのイメージ・ツー・イメージ・トランスフォーメーションのための一般的なフレームワークを提案する。
フレームワークの副産物は、最先端の作業で行われているように、ドメインをペアでトレーニングするよりも少ない時間を必要とするため、コンピューティング時間とコンピューティングリソースの削減である。
提案するフレームワークは、2つのエンコーダと、さまざまなドメインにまたがる高レベル機能を学習して、多様で現実的なサンプルを生成するganのペアで構成されています。
本フレームワークは,最先端技術と比較して,画像から画像へのタスクで競合する結果を示す。
関連論文リスト
- Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Using Language to Extend to Unseen Domains [81.37175826824625]
ビジョンモデルがデプロイ時に遭遇する可能性のあるすべてのドメインのトレーニングデータを集めることは、費用がかかる。
トレーニングドメインと拡張したいが、堅牢性を改善するためのデータを持っていないドメインを、いかに単純に言葉で表現するかを考えます。
共同画像と言語埋め込み空間を備えたマルチモーダルモデルを用いて、LADSはトレーニング領域から各未確認テスト領域への画像埋め込みの変換を学習する。
論文 参考訳(メタデータ) (2022-10-18T01:14:02Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Leveraging in-domain supervision for unsupervised image-to-image
translation tasks via multi-stream generators [4.726777092009554]
本稿では、翻訳品質の利点を活かすために、このドメイン内の貴重な事前知識を組み込むための2つの手法を紹介する。
本稿では,入力データをセマンティックマスクに従って分割し,画像の異なる領域の異なる動作にネットワークを明示的に導くことを提案する。
さらに,翻訳作業とともにセマンティックセグメンテーションネットワークを訓練し,この出力をロバスト性を向上させる損失項として活用することを提案する。
論文 参考訳(メタデータ) (2021-12-30T15:29:36Z) - Self-Supervised Learning of Domain Invariant Features for Depth
Estimation [35.74969527929284]
単一画像深度推定のための教師なし合成-現実的領域適応の課題に対処する。
単一画像深度推定の重要なビルディングブロックはエンコーダ・デコーダ・タスク・ネットワークであり、RGB画像を入力とし、出力として深度マップを生成する。
本稿では,タスクネットワークにドメイン不変表現を自己教師型で学習させる新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-06-04T16:45:48Z) - SoloGAN: Multi-domain Multimodal Unpaired Image-to-Image Translation via
a Single Generative Adversarial Network [4.7344504314446345]
本稿では、複数のドメイン間の効率的なマルチモーダルI2I翻訳のためのフレキシブルで汎用的なSoloGANモデルを提案する。
既存の手法とは対照的に、SoloGANアルゴリズムは追加の補助分類器を備えた単一の射影判別器を使用し、すべてのドメインに対してエンコーダとジェネレータを共有する。
論文 参考訳(メタデータ) (2020-08-04T16:31:15Z) - GMM-UNIT: Unsupervised Multi-Domain and Multi-Modal Image-to-Image
Translation via Attribute Gaussian Mixture Modeling [66.50914391679375]
unsupervised image-to-image translation (UNIT) は、未経験の訓練画像を用いて、複数の視覚領域間のマッピングを学習することを目的としている。
最近の研究は、複数のドメインで顕著な成功を示しているが、それらは2つの主要な制限に悩まされている。
GMM-UNITという,空間にGMMを組み込むコンテンツ属性不整合表現に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-03-15T10:18:56Z) - Latent Normalizing Flows for Many-to-Many Cross-Domain Mappings [76.85673049332428]
画像とテキストの合同表現の学習は、画像キャプションのようないくつかの重要なドメイン横断タスクのバックボーンを形成する。
ドメイン間の共有情報とドメイン固有の情報を個別にモデル化する,新しい半教師付きフレームワークを提案する。
画像キャプションやテキスト・ツー・イメージ合成など,様々なタスクにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T19:49:30Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。