論文の概要: DynaGAN: Dynamic Few-shot Adaptation of GANs to Multiple Domains
- arxiv url: http://arxiv.org/abs/2211.14554v1
- Date: Sat, 26 Nov 2022 12:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 18:15:10.400726
- Title: DynaGAN: Dynamic Few-shot Adaptation of GANs to Multiple Domains
- Title(参考訳): DynaGAN: 複数のドメインに対するGANの動的Few-shot適応
- Authors: Seongtae Kim, Kyoungkook Kang, Geonung Kim, Seung-Hwan Baek, Sunghyun
Cho
- Abstract要約: 複数のドメインへのドメイン適応は、いくつかのトレーニングイメージから複数のドメインにまたがる複雑なイメージ分布を学習することを目的としている。
複数のターゲットドメインに対する新規な数ショットドメイン適応法であるDynaGANを提案する。
- 参考スコア(独自算出の注目度): 26.95350186287616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot domain adaptation to multiple domains aims to learn a complex image
distribution across multiple domains from a few training images. A na\"ive
solution here is to train a separate model for each domain using few-shot
domain adaptation methods. Unfortunately, this approach mandates
linearly-scaled computational resources both in memory and computation time
and, more importantly, such separate models cannot exploit the shared knowledge
between target domains. In this paper, we propose DynaGAN, a novel few-shot
domain-adaptation method for multiple target domains. DynaGAN has an adaptation
module, which is a hyper-network that dynamically adapts a pretrained GAN model
into the multiple target domains. Hence, we can fully exploit the shared
knowledge across target domains and avoid the linearly-scaled computational
requirements. As it is still computationally challenging to adapt a large-size
GAN model, we design our adaptation module light-weight using the rank-1 tensor
decomposition. Lastly, we propose a contrastive-adaptation loss suitable for
multi-domain few-shot adaptation. We validate the effectiveness of our method
through extensive qualitative and quantitative evaluations.
- Abstract(参考訳): 複数のドメインへのドメイン適応は、いくつかのトレーニングイメージから複数のドメインにまたがる複雑なイメージ分布を学習することを目的としている。
ここでのna\\iveソリューションは、少数ショットのドメイン適応メソッドを使用して、各ドメインに対して別々のモデルをトレーニングすることです。
残念なことに、このアプローチはメモリと計算時間の両方で線形スケールの計算資源を割り当てており、さらに重要なことに、そのような分離されたモデルは対象ドメイン間の共有知識を活用できない。
本稿では,複数の対象領域に対する新規な少数ショットドメイン適応法であるdynaganを提案する。
DynaGANには適応モジュールがあり、これはハイパーネットワークであり、トレーニング済みのGANモデルを複数のターゲットドメインに動的に適応させる。
したがって、対象ドメイン間の共有知識を完全に活用し、線形スケールの計算要求を回避することができる。
大規模ganモデルへの適応は依然として計算上困難であるため,rank-1テンソル分解を用いた適応モジュール軽量化の設計を行う。
最後に,複数領域の少数ショット適応に適したコントラスト適応損失を提案する。
本手法の有効性は,広範囲な質的,定量的な評価によって検証する。
関連論文リスト
- Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation [72.70876977882882]
臨床応用においては、トレーニング画像(ソース領域)とテスト画像(ターゲット領域)が異なる分布下にある場合、ドメインシフトは一般的な問題である。
本稿では,Few-Shot Unsupervised Domain Adaptation (FSUDA) の新たな手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T16:02:01Z) - Dynamic Domain Discrepancy Adjustment for Active Multi-Domain Adaptation [3.367755441623275]
マルチソースアン教師付きドメイン適応(MUDA)は、関連するソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
アクティブマルチドメイン適応(D3AAMDA)のための動的ドメイン不一致適応法(Dynamic Domain Disrepancy Adjustment)を提案する。
このメカニズムは、ソースドメインとターゲットドメイン間の特徴のアライメントレベルを制御し、ソースドメイン内のローカルな有利な特徴情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-07-26T09:40:19Z) - Multi-Domain Learning with Modulation Adapters [33.54630534228469]
マルチドメイン学習は、複数のドメインにまたがる画像分類など、関連するタスクを同時に処理することを目的としている。
変調アダプタは、各タスクに対して乗法的にモデルの畳み込み重みを更新する。
我々のアプローチは、既存の最先端のアプローチと同等かそれ以上の精度で、優れた結果をもたらす。
論文 参考訳(メタデータ) (2023-07-17T14:40:16Z) - From Big to Small: Adaptive Learning to Partial-Set Domains [94.92635970450578]
ドメイン適応は、分布シフト中のラベル付きソースドメインからラベルなしターゲットドメインへの知識獲得と普及を目標とする。
近年の進歩は、大規模の深層学習モデルにより、小規模の下流の多様な課題に取り組むための豊富な知識が得られていることを示している。
本稿では,学習パラダイムである部分領域適応(Partial Domain Adaptation, PDA)を紹介する。
論文 参考訳(メタデータ) (2022-03-14T07:02:45Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - CADA: Multi-scale Collaborative Adversarial Domain Adaptation for
Unsupervised Optic Disc and Cup Segmentation [3.587294308501889]
CADA(Collaborative Adrial Domain Adaptation)と呼ばれる新しい教師なしドメイン適応フレームワークを提案する。
提案するCADAは,異なるネットワーク層における対角学習とアンサンブル重みの両面から,対話的な協調的適応を示すパラダイムである。
マルチスケールな入力学習を取り入れたCADAモデルは、性能劣化を克服し、最先端のドメイン適応手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-10-05T23:44:26Z) - Mutual Learning Network for Multi-Source Domain Adaptation [73.25974539191553]
ML-MSDA(Multial Learning Network for Multiple Source Domain Adaptation)を提案する。
相互学習の枠組みのもと,提案手法は対象ドメインと各ソースドメインをペアリングし,条件付き対向ドメイン適応ネットワークを分岐ネットワークとして訓練する。
提案手法は, 比較手法より優れ, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-03-29T04:31:43Z) - Multi-Source Domain Adaptation for Text Classification via
DistanceNet-Bandits [101.68525259222164]
本研究では,NLPタスクのコンテキストにおいて,サンプル推定に基づく領域間の相違を特徴付ける様々な距離ベース尺度について検討する。
タスクの損失関数と協調して最小化するために,これらの距離測度を付加的な損失関数として用いるディスタンスネットモデルを開発した。
マルチアーム・バンド・コントローラを用いて複数のソース・ドメインを動的に切り替えるDistanceNet-Banditモデルに拡張する。
論文 参考訳(メタデータ) (2020-01-13T15:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。