論文の概要: Domain Expansion of Image Generators
- arxiv url: http://arxiv.org/abs/2301.05225v1
- Date: Thu, 12 Jan 2023 18:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:08:31.764288
- Title: Domain Expansion of Image Generators
- Title(参考訳): 画像生成器の領域拡張
- Authors: Yotam Nitzan, Micha\"el Gharbi, Richard Zhang, Taesung Park, Jun-Yan
Zhu, Daniel Cohen-Or, Eli Shechtman
- Abstract要約: この問題に対処するための新しいタスク - ドメイン拡張 - を提案する。
事前訓練されたジェネレータと新しい(しかし関連する)ドメインが与えられたら、ジェネレータを拡張して、古い、新しい、調和して全てのドメインを共同でモデル化する。
拡張手法を用いることで、拡張モデルのサイズを拡大することなく、多くのドメイン固有モデルに取って代わることができる。
- 参考スコア(独自算出の注目度): 80.8601805917418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can one inject new concepts into an already trained generative model, while
respecting its existing structure and knowledge? We propose a new task - domain
expansion - to address this. Given a pretrained generator and novel (but
related) domains, we expand the generator to jointly model all domains, old and
new, harmoniously. First, we note the generator contains a meaningful,
pretrained latent space. Is it possible to minimally perturb this hard-earned
representation, while maximally representing the new domains? Interestingly, we
find that the latent space offers unused, "dormant" directions, which do not
affect the output. This provides an opportunity: By "repurposing" these
directions, we can represent new domains without perturbing the original
representation. In fact, we find that pretrained generators have the capacity
to add several - even hundreds - of new domains! Using our expansion method,
one "expanded" model can supersede numerous domain-specific models, without
expanding the model size. Additionally, a single expanded generator natively
supports smooth transitions between domains, as well as composition of domains.
Code and project page available at
https://yotamnitzan.github.io/domain-expansion/.
- Abstract(参考訳): 既存の構造と知識を尊重しながら、すでに訓練された生成モデルに新しい概念を注入できるだろうか?
この問題に対処するための新しいタスク、ドメイン拡張を提案する。
事前訓練されたジェネレータと新しい(しかし関連する)ドメインが与えられたら、ジェネレータを拡張して、古い、新しい、調和して全てのドメインを共同でモデル化する。
まず、生成元は有意義で事前訓練された潜在空間を含むことに注意する。
新しいドメインを最大限に表現しながら、このハードアーンド表現を最小限に摂動することは可能か?
興味深いことに、潜在空間は、出力に影響を与えない未使用の「ドーマント」方向を提供する。
これらの方向を"再提案"することで、元の表現を混乱させることなく、新しいドメインを表現できる。
実際、事前訓練されたジェネレータには、数百もの新しいドメインを追加する能力があることに気付きました。
拡張手法を用いることで、モデルサイズを拡大することなく、多数のドメイン固有モデルに取って代わることができる。
さらに、単一の拡張ジェネレータはドメイン間のスムーズな遷移とドメインの構成をネイティブにサポートする。
コードとプロジェクトページはhttps://yotamnitzan.github.io/domain-expansion/。
関連論文リスト
- DomainGallery: Few-shot Domain-driven Image Generation by Attribute-centric Finetuning [51.66633704537334]
DomainGalleryは、数ショットのドメイン駆動画像生成方法である。
属性消去、属性の切り離し、正規化、拡張が特徴である。
さまざまなドメイン駆動生成シナリオにおいて、DomainGalleryの優れたパフォーマンスを検証する実験が行われます。
論文 参考訳(メタデータ) (2024-11-07T09:55:36Z) - UniHDA: A Unified and Versatile Framework for Multi-Modal Hybrid Domain Adaptation [22.003900281544766]
提案するUniHDAは,複数のドメインからのマルチモーダル参照を持つハイブリッドドメインを生成可能なフレームワークである。
我々のフレームワークはジェネレータに依存しず、StyleGAN, EG3D, Diffusion Modelsなどの複数のジェネレータに汎用的です。
論文 参考訳(メタデータ) (2024-01-23T09:49:24Z) - Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Domain Re-Modulation for Few-Shot Generative Domain Adaptation [71.47730150327818]
生成ドメイン適応(Generative Domain Adaptation, GDA)は、トレーニング済みのジェネレータを、いくつかの参照イメージのみを使用して、ひとつのドメインから新しいドメインに転送する。
人間の脳が新しいドメインの知識を得る方法に触発されて、ドメイン再構成(DoRM)と呼ばれる革新的なジェネレータ構造を提示する。
DoRMは、高品質、大規模な合成の多様性、ドメイン間の整合性の基準を満たすだけでなく、メモリとドメインの関連も含んでいる。
論文 参考訳(メタデータ) (2023-02-06T03:55:35Z) - Open SESAME: Fighting Botnets with Seed Reconstructions of Domain
Generation Algorithms [0.0]
ボットはドメイン生成アルゴリズム(DGA)を使用して擬似ランダムドメイン名を生成することができる
サイバー犯罪者は、そのようなドメインを登録して、定期的に変化するランデブーポイントをボットで設定することができる。
SESAMEは上記の2つのアプローチを組み合わせたシステムであり、自動シードレコンストラクションのためのモジュールを含んでいる。
論文 参考訳(メタデータ) (2023-01-12T14:25:31Z) - HyperDomainNet: Universal Domain Adaptation for Generative Adversarial
Networks [0.0]
そこで本研究では,StyleGAN2の3000万重量ではなく,6千次元ベクトルのみを最適化し,対象領域に適応する新しい領域変調手法を提案する。
最適化パラメータ空間の縮小に着想を得て, GANの多領域適応の問題を考える。
対象ドメインからパラメータ化を予測するハイパーネットワークであるHyperDomainNetを提案する。
論文 参考訳(メタデータ) (2022-10-17T09:27:39Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators [63.85888518950824]
生成モデルを新しいドメインに移行できるテキスト駆動方式を提案する。
自然言語のプロンプトと数分の訓練によって、我々の手法は複数のドメインにまたがってジェネレータを適応させることができることを示す。
論文 参考訳(メタデータ) (2021-08-02T14:46:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。