論文の概要: Domain Adaptation for Learning Generator from Paired Few-Shot Data
- arxiv url: http://arxiv.org/abs/2102.12765v1
- Date: Thu, 25 Feb 2021 10:11:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-27 08:47:36.804332
- Title: Domain Adaptation for Learning Generator from Paired Few-Shot Data
- Title(参考訳): ペアドフェーショットデータからの学習生成のためのドメイン適応
- Authors: Chun-Chih Teng and Pin-Yu Chen and Wei-Chen Chiu
- Abstract要約: 十分なソースデータと少数のターゲットデータを持つジェネレータを学習するためのペアドフェーショットGAN(PFS-GAN)モデルを提案する。
提案手法は,複数のベースラインと比較して,より多様性の高い生成対象ドメインデータに対して,定量的,定性的な結果が得られる。
- 参考スコア(独自算出の注目度): 72.04430033118426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a Paired Few-shot GAN (PFS-GAN) model for learning generators with
sufficient source data and a few target data. While generative model learning
typically needs large-scale training data, our PFS-GAN not only uses the
concept of few-shot learning but also domain shift to transfer the knowledge
across domains, which alleviates the issue of obtaining low-quality generator
when only trained with target domain data. The cross-domain datasets are
assumed to have two properties: (1) each target-domain sample has its
source-domain correspondence and (2) two domains share similar content
information but different appearance. Our PFS-GAN aims to learn the
disentangled representation from images, which composed of domain-invariant
content features and domain-specific appearance features. Furthermore, a
relation loss is introduced on the content features while shifting the
appearance features to increase the structural diversity. Extensive experiments
show that our method has better quantitative and qualitative results on the
generated target-domain data with higher diversity in comparison to several
baselines.
- Abstract(参考訳): 十分なソースデータと少数のターゲットデータを持つジェネレータを学習するためのペアドフェーショットGAN(PFS-GAN)モデルを提案する。
生成モデル学習は通常、大規模なトレーニングデータを必要とするが、当社のPFS-GANは、少数ショット学習の概念だけでなく、ドメイン間で知識を伝達するためのドメインシフトも使用しています。
クロスドメインデータセットは、(1)各ターゲットドメインのサンプルはソースドメイン対応を持ち、(2)2つのドメインは、同様のコンテンツ情報を共有するが、外観が異なる。
我々のPFS-GANは、ドメイン不変のコンテンツ特徴とドメイン固有の外観特徴からなる画像から、切り離された表現を学習することを目的としている。
さらに、外観特徴をシフトさせて構造的多様性を高めつつ、内容特徴に関係損失を導入する。
広範な実験により,複数のベースラインと比較して,高い多様性を持つ生成対象領域データに対する定量的・定性的結果が得られた。
関連論文リスト
- TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Adversarial Dual Distinct Classifiers for Unsupervised Domain Adaptation [67.83872616307008]
Unversarial Domain adaptation (UDA)は、異なる分散されたラベル付きソースドメインから学習モデルを構築することで、ラベルなしのターゲットサンプルを認識しようとする。
本稿では,タスク固有のカテゴリ境界に一致するソースとターゲット領域のデータ分布を同時に整合させる新しいアドリラルデュアル・ディスタンス・ネットワーク(AD$2$CN)を提案する。
具体的には、ドメイン不変の特徴発生器を利用して、識別的クロスドメインアライメントのガイダンスにより、ソースとターゲットデータを潜在共通空間に埋め込む。
論文 参考訳(メタデータ) (2020-08-27T01:29:10Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Physically-Constrained Transfer Learning through Shared Abundance Space
for Hyperspectral Image Classification [14.840925517957258]
本稿では、ソースとターゲットドメイン間のギャップを埋める新しい転送学習手法を提案する。
提案手法は,共有空間を経由した物理制約付き移動学習と呼ばれる。
論文 参考訳(メタデータ) (2020-08-19T17:41:37Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。