論文の概要: Mind the Gap: Domain Gap Control for Single Shot Domain Adaptation for
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2110.08398v1
- Date: Fri, 15 Oct 2021 22:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 22:15:25.788908
- Title: Mind the Gap: Domain Gap Control for Single Shot Domain Adaptation for
Generative Adversarial Networks
- Title(参考訳): Mind the Gap: 生成対向ネットワークのための単一ショット領域適応のためのドメインギャップ制御
- Authors: Peihao Zhu, Rameen Abdal, John Femiani, Peter Wonka
- Abstract要約: ワンショット領域適応のための新しい手法を提案する。
本手法の入力は、ドメインA内の画像と、ドメインBからの単一の参照画像I_Bを生成することができる訓練されたGANである。
提案アルゴリズムは、訓練されたGANの任意の出力をドメインAからドメインBに変換することができる。
- 参考スコア(独自算出の注目度): 40.85660781133709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new method for one shot domain adaptation. The input to our
method is trained GAN that can produce images in domain A and a single
reference image I_B from domain B. The proposed algorithm can translate any
output of the trained GAN from domain A to domain B. There are two main
advantages of our method compared to the current state of the art: First, our
solution achieves higher visual quality, e.g. by noticeably reducing
overfitting. Second, our solution allows for more degrees of freedom to control
the domain gap, i.e. what aspects of image I_B are used to define the domain B.
Technically, we realize the new method by building on a pre-trained StyleGAN
generator as GAN and a pre-trained CLIP model for representing the domain gap.
We propose several new regularizers for controlling the domain gap to optimize
the weights of the pre-trained StyleGAN generator to output images in domain B
instead of domain A. The regularizers prevent the optimization from taking on
too many attributes of the single reference image. Our results show significant
visual improvements over the state of the art as well as multiple applications
that highlight improved control.
- Abstract(参考訳): ワンショット領域適応のための新しい手法を提案する。
提案アルゴリズムは,ドメインAからドメインBへトレーニングされたGANの任意の出力を変換することができるが,本手法の利点は2つある。
第2に、この解は、ドメイン間隙、すなわち、ドメインbを定義するのに画像i_bのどの側面が使用されるかを制御する自由度を増やすことができる。
本稿では,事前学習されたstylegan生成器の重みをドメインaではなく,ドメインb内の画像出力に最適化するために,ドメインギャップを制御するための新たなレギュレータを提案する。
以上の結果から,制御性の向上を目立たせる複数のアプリケーションとともに,最先端の視覚的改善が見られた。
関連論文リスト
- FPL+: Filtered Pseudo Label-based Unsupervised Cross-Modality Adaptation for 3D Medical Image Segmentation [14.925162565630185]
医用画像分割のための拡張フィルタ擬似ラベル (FPL+) を用いたUnsupervised Domain Adaptation (UDA) 手法を提案する。
まず、ソースドメイン内のラベル付き画像を、擬似ソースドメインセットと擬似ターゲットドメインセットからなる二重ドメイントレーニングセットに変換するために、クロスドメインデータ拡張を使用する。
次に、ラベル付きソースドメインイメージとターゲットドメインイメージを擬似ラベルと組み合わせて最終セグメンタを訓練し、不確実性推定に基づく画像レベルの重み付けとデュアルドメインのコンセンサスに基づく画素レベルの重み付けを提案し、ノイズのある擬似の悪影響を軽減する。
論文 参考訳(メタデータ) (2024-04-07T14:21:37Z) - Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Reducing Domain Gap in Frequency and Spatial domain for Cross-modality
Domain Adaptation on Medical Image Segmentation [5.371816551086118]
教師なしドメイン適応(UDA)は、ソースドメインで訓練されたモデルを学び、ラベルなしのターゲットドメインでうまく機能することを目的としています。
本稿では, 周波数及び空間領域移動Uner Multi-Teacher蒸留フレームワークに基づく, 単純かつ効果的なUDA法を提案する。
提案手法は最先端手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-28T11:35:39Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - An End-to-end Supervised Domain Adaptation Framework for Cross-Domain
Change Detection [29.70695339406896]
クロスドメイン変更検出のためのエンドツーエンドのドメイン適応フレームワークを提案する。
SDACDは画像と特徴の両方の観点から協調的な適応と教師あり学習を提示する。
我々のフレームワークは、いくつかの代表的ベースラインモデルを新しいState-Of-The-Artレコードに押し上げる。
論文 参考訳(メタデータ) (2022-04-01T01:35:30Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - GMM-UNIT: Unsupervised Multi-Domain and Multi-Modal Image-to-Image
Translation via Attribute Gaussian Mixture Modeling [66.50914391679375]
unsupervised image-to-image translation (UNIT) は、未経験の訓練画像を用いて、複数の視覚領域間のマッピングを学習することを目的としている。
最近の研究は、複数のドメインで顕著な成功を示しているが、それらは2つの主要な制限に悩まされている。
GMM-UNITという,空間にGMMを組み込むコンテンツ属性不整合表現に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-03-15T10:18:56Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。