論文の概要: HyperDomainNet: Universal Domain Adaptation for Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2210.08884v1
- Date: Mon, 17 Oct 2022 09:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:48:11.082999
- Title: HyperDomainNet: Universal Domain Adaptation for Generative Adversarial
Networks
- Title(参考訳): HyperDomainNet: 生成逆ネットワークのためのユニバーサルドメイン適応
- Authors: Aibek Alanov, Vadim Titov, Dmitry Vetrov
- Abstract要約: そこで本研究では,StyleGAN2の3000万重量ではなく,6千次元ベクトルのみを最適化し,対象領域に適応する新しい領域変調手法を提案する。
最適化パラメータ空間の縮小に着想を得て, GANの多領域適応の問題を考える。
対象ドメインからパラメータ化を予測するハイパーネットワークであるHyperDomainNetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation framework of GANs has achieved great progress in recent
years as a main successful approach of training contemporary GANs in the case
of very limited training data. In this work, we significantly improve this
framework by proposing an extremely compact parameter space for fine-tuning the
generator. We introduce a novel domain-modulation technique that allows to
optimize only 6 thousand-dimensional vector instead of 30 million weights of
StyleGAN2 to adapt to a target domain. We apply this parameterization to the
state-of-art domain adaptation methods and show that it has almost the same
expressiveness as the full parameter space. Additionally, we propose a new
regularization loss that considerably enhances the diversity of the fine-tuned
generator. Inspired by the reduction in the size of the optimizing parameter
space we consider the problem of multi-domain adaptation of GANs, i.e. setting
when the same model can adapt to several domains depending on the input query.
We propose the HyperDomainNet that is a hypernetwork that predicts our
parameterization given the target domain. We empirically confirm that it can
successfully learn a number of domains at once and may even generalize to
unseen domains. Source code can be found at
https://github.com/MACderRu/HyperDomainNet
- Abstract(参考訳): GANのドメイン適応フレームワークは、非常に限られたトレーニングデータにおいて、現代GANのトレーニングを成功させる主要なアプローチとして、近年大きな進歩を遂げている。
本研究では,生成器を微調整するための非常にコンパクトなパラメータ空間を提案することにより,この枠組みを著しく改善する。
対象領域に適応するために,3000万重量のstylegan2の代わりに6万次元ベクトルのみを最適化する新しいドメイン変調手法を提案する。
このパラメータ化を最先端のドメイン適応法に適用し,全パラメータ空間とほぼ同一の表現性を示す。
さらに, 微調整発電機の多様性を著しく向上させる新しい正規化損失を提案する。
最適化パラメータ空間の大きさの縮小に触発されて、ganのマルチドメイン適応の問題、すなわち、同じモデルが入力クエリに応じて複数のドメインに適応できる場合の設定について検討する。
我々は,対象領域に対してパラメータ化を予測するハイパーネットワークであるhyperdomainnetを提案する。
実験により、複数のドメインを一度に学習し、未知のドメインにも一般化できることを確認した。
ソースコードはhttps://github.com/MACderRu/HyperDomainNetで確認できる。
関連論文リスト
- Domain-Rectifying Adapter for Cross-Domain Few-Shot Segmentation [40.667166043101076]
多様なターゲットドメインスタイルをソースドメインに修正するための小さなアダプタを提案する。
アダプタは、さまざまな合成対象ドメインから画像特徴を修正して、ソースドメインと整合するように訓練される。
提案手法は,ドメイン間複数ショットセマンティックセマンティックセグメンテーションタスクにおいて有望な結果を得る。
論文 参考訳(メタデータ) (2024-04-16T07:07:40Z) - UniHDA: A Unified and Versatile Framework for Multi-Modal Hybrid Domain Adaptation [22.003900281544766]
提案するUniHDAは,複数のドメインからのマルチモーダル参照を持つハイブリッドドメインを生成可能なフレームワークである。
我々のフレームワークはジェネレータに依存しず、StyleGAN, EG3D, Diffusion Modelsなどの複数のジェネレータに汎用的です。
論文 参考訳(メタデータ) (2024-01-23T09:49:24Z) - AdapterSoup: Weight Averaging to Improve Generalization of Pretrained
Language Models [127.04370753583261]
事前訓練された言語モデル(PLM)は、大規模なコーパスで訓練されるが、しばしば特定のドメインに特化する必要がある。
解決策は、テスト時に新しいドメインに関連ドメインアダプタを使用することである。
本稿では、異なるドメインでトレーニングされたアダプタの重量空間平均化を行うAdapterSoupを紹介する。
論文 参考訳(メタデータ) (2023-02-14T13:09:23Z) - StyleDomain: Efficient and Lightweight Parameterizations of StyleGAN for
One-shot and Few-shot Domain Adaptation [4.943054375935879]
本稿では,GANのドメイン適応問題について,StyleGANモデルに焦点をあてた,体系的かつ詳細な解析を行う。
ドメイン適応のためのStyleGANの効率的かつ軽量なパラメータ化を提案する。
論文 参考訳(メタデータ) (2022-12-20T13:07:20Z) - DynaGAN: Dynamic Few-shot Adaptation of GANs to Multiple Domains [26.95350186287616]
複数のドメインへのドメイン適応は、いくつかのトレーニングイメージから複数のドメインにまたがる複雑なイメージ分布を学習することを目的としている。
複数のターゲットドメインに対する新規な数ショットドメイン適応法であるDynaGANを提案する。
論文 参考訳(メタデータ) (2022-11-26T12:46:40Z) - Multi-step domain adaptation by adversarial attack to $\mathcal{H}
\Delta \mathcal{H}$-divergence [73.89838982331453]
教師なしのドメイン適応設定では、対象ドメインのソース精度を向上させるために、ソースドメインを逆例に置き換えることが示される。
我々は、様々な実験を行い、DigitsとOffice-Homeデータセットの精度を向上した。
論文 参考訳(メタデータ) (2022-07-18T21:24:05Z) - Connecting adversarial attacks and optimal transport for domain
adaptation [116.50515978657002]
ドメイン適応では、ソースドメインのサンプルに基づいてトレーニングされた分類器をターゲットドメインに適応させることが目標である。
提案手法では,最適なトランスポートを用いて,対象のサンプルをソース・フィクションという名前のドメインにマッピングする。
我々の主なアイデアは、ターゲットドメイン上のc-環状モノトン変換によってソースフィクションを生成することである。
論文 参考訳(メタデータ) (2022-05-30T20:45:55Z) - Efficient Hierarchical Domain Adaptation for Pretrained Language Models [77.02962815423658]
生成言語モデルは、多種多様な一般的なドメインコーパスに基づいて訓練される。
計算効率のよいアダプタアプローチを用いて,ドメイン適応を多種多様なドメインに拡張する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:09:29Z) - Self-Adversarial Disentangling for Specific Domain Adaptation [52.1935168534351]
ドメイン適応は、ソースとターゲットドメイン間のドメインシフトをブリッジすることを目的としています。
最近の手法では、特定の次元について明示的な事前知識を考慮しないのが一般的である。
論文 参考訳(メタデータ) (2021-08-08T02:36:45Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。