論文の概要: Few-shot Image Generation with Elastic Weight Consolidation
- arxiv url: http://arxiv.org/abs/2012.02780v1
- Date: Fri, 4 Dec 2020 18:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:38:31.056294
- Title: Few-shot Image Generation with Elastic Weight Consolidation
- Title(参考訳): 弾性重み強化による少数ショット画像生成
- Authors: Yijun Li, Richard Zhang, Jingwan Lu, Eli Shechtman
- Abstract要約: 少ないショット画像生成は、利用可能なトレーニング例がほとんどなく、与えられたドメインのより多くのデータを生成することを目指している。
対象ドメインのいくつかの例に、追加のパラメータを導入することなく、事前訓練されたモデルを適用する。
我々は,異なる対象領域の高品質な結果を生成することにより,アルゴリズムの有効性を実証する。
- 参考スコア(独自算出の注目度): 53.556446614013105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot image generation seeks to generate more data of a given domain, with
only few available training examples. As it is unreasonable to expect to fully
infer the distribution from just a few observations (e.g., emojis), we seek to
leverage a large, related source domain as pretraining (e.g., human faces).
Thus, we wish to preserve the diversity of the source domain, while adapting to
the appearance of the target. We adapt a pretrained model, without introducing
any additional parameters, to the few examples of the target domain. Crucially,
we regularize the changes of the weights during this adaptation, in order to
best preserve the information of the source dataset, while fitting the target.
We demonstrate the effectiveness of our algorithm by generating high-quality
results of different target domains, including those with extremely few
examples (e.g., <10). We also analyze the performance of our method with
respect to some important factors, such as the number of examples and the
dissimilarity between the source and target domain.
- Abstract(参考訳): 少数ショット画像生成は、利用可能なトレーニング例がほとんどなく、所定のドメインのより多くのデータを生成することを目指している。
少数の観測結果(絵文字など)から分布を完全に推測することは理にかなわないため、我々は大規模な関連するソースドメインを事前訓練(人間の顔など)として活用しようと試みている。
したがって、ターゲットの外観に適応しながら、ソースドメインの多様性を保ちたいと考えています。
対象ドメインのいくつかの例に、追加のパラメータを導入することなく、事前訓練されたモデルを適用する。
重要なことは、この適応の際の重みの変化を規則化し、ターゲットを適合させながら、ソースデータセットの情報を最もよく保存する。
極めて少ない例(例: <10)を含む,異なる対象領域の高品質な結果を生成することで,アルゴリズムの有効性を実証する。
また,サンプル数やソースとターゲットドメインの相違点など,いくつかの重要な要因について,本手法の性能分析を行った。
関連論文リスト
- DG-TTA: Out-of-domain medical image segmentation through Domain Generalization and Test-Time Adaptation [43.842694540544194]
本稿では、ドメインの一般化とテスト時間適応を組み合わせることで、未確認対象領域で事前学習したモデルを再利用するための非常に効果的なアプローチを提案する。
本手法は,事前訓練した全身CTモデルと組み合わせることで,MR画像を高精度に分割できることを実証する。
論文 参考訳(メタデータ) (2023-12-11T10:26:21Z) - Prior Omission of Dissimilar Source Domain(s) for Cost-Effective
Few-Shot Learning [24.647313693814798]
ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル(NLU)の分野における新たな研究課題
ソースドメインからの十分なアノテートされたデータによって、重要な課題は、モデルを少数のラベルしか持たない別のターゲットドメインにトレーニングし、適応する方法である。
論文 参考訳(メタデータ) (2021-09-11T09:30:59Z) - Few-shot Image Generation via Cross-domain Correspondence [98.2263458153041]
限られた例を含む対象領域におけるGANなどの生成モデルの訓練は、容易に過度な適合をもたらす。
本研究では,多様性情報をソースからターゲットにプリトレーニングし,転送するために,大きなソースドメインを活用することを目指す。
さらに,オーバーフィッティングを減らすために,潜在空間内の異なる領域に対して異なるレベルのリアリズムを奨励するアンカーベースの戦略を提案する。
論文 参考訳(メタデータ) (2021-04-13T17:59:35Z) - Domain Adaptation for Learning Generator from Paired Few-Shot Data [72.04430033118426]
十分なソースデータと少数のターゲットデータを持つジェネレータを学習するためのペアドフェーショットGAN(PFS-GAN)モデルを提案する。
提案手法は,複数のベースラインと比較して,より多様性の高い生成対象ドメインデータに対して,定量的,定性的な結果が得られる。
論文 参考訳(メタデータ) (2021-02-25T10:11:44Z) - $n$-Reference Transfer Learning for Saliency Prediction [73.17061116358036]
本稿では,サリエンシ予測のための数発のトランスファー学習パラダイムを提案する。
提案するフレームワークは勾配ベースでモデルに依存しない。
その結果,提案フレームワークは大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2020-07-09T23:20:44Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。