論文の概要: One-Shot Domain Adaptation For Face Generation
- arxiv url: http://arxiv.org/abs/2003.12869v1
- Date: Sat, 28 Mar 2020 18:50:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:55:45.639814
- Title: One-Shot Domain Adaptation For Face Generation
- Title(参考訳): 顔生成のためのワンショットドメイン適応
- Authors: Chao Yang, Ser-Nam Lim
- Abstract要約: 本稿では,与えられた一発例と同じ分布に陥る顔画像を生成するフレームワークを提案する。
出力の高レベル分布を目標にシフトするために,モデルの重みを迅速に適応させる反復最適化手法を開発した。
同じ分布の画像を生成するために,ターゲットからランダムに生成した顔へ低レベル統計を転送するスタイルミキシング手法を提案する。
- 参考スコア(独自算出の注目度): 34.882820002799626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a framework capable of generating face images that
fall into the same distribution as that of a given one-shot example. We
leverage a pre-trained StyleGAN model that already learned the generic face
distribution. Given the one-shot target, we develop an iterative optimization
scheme that rapidly adapts the weights of the model to shift the output's
high-level distribution to the target's. To generate images of the same
distribution, we introduce a style-mixing technique that transfers the
low-level statistics from the target to faces randomly generated with the
model. With that, we are able to generate an unlimited number of faces that
inherit from the distribution of both generic human faces and the one-shot
example. The newly generated faces can serve as augmented training data for
other downstream tasks. Such setting is appealing as it requires labeling very
few, or even one example, in the target domain, which is often the case of
real-world face manipulations that result from a variety of unknown and unique
distributions, each with extremely low prevalence. We show the effectiveness of
our one-shot approach for detecting face manipulations and compare it with
other few-shot domain adaptation methods qualitatively and quantitatively.
- Abstract(参考訳): 本稿では,与えられた一発の例と同じ分布に陥る顔画像を生成するフレームワークを提案する。
すでに一般的な顔分布を学習した事前学習されたスタイルガンモデルを活用する。
単発の目標を考えると、モデルの重みを迅速に適応させ、出力の高レベル分布を目標にシフトさせる反復最適化スキームを開発する。
同じ分布の画像を生成するために,ターゲットからランダムに生成された顔へ低レベル統計を転送するスタイルミキシング手法を提案する。
これにより、一般的な人間の顔とワンショットの例の両方の分布から受け継がれる無制限の顔を生成することができる。
新たに生成された顔は他の下流タスクのトレーニングデータとして機能する。
このような設定は、ターゲットドメイン内で非常に少ないラベリング、あるいは1つの例を必要とするため、魅力的である。
顔操作検出におけるワンショットアプローチの有効性を示し,他のマイナショット領域適応法との比較を行った。
関連論文リスト
- Score Neural Operator: A Generative Model for Learning and Generalizing Across Multiple Probability Distributions [7.851040662069365]
我々は,複数の確率分布からスコア関数へのマッピングを統一されたフレームワーク内で学習する,$emphScore Neural Operatorを紹介した。
提案手法は,新しい分布からの1つのイメージを利用すれば,その分布から複数の異なる画像を生成することができる。
論文 参考訳(メタデータ) (2024-10-11T06:00:34Z) - ZoDi: Zero-Shot Domain Adaptation with Diffusion-Based Image Transfer [13.956618446530559]
本稿では,ZoDiと呼ばれる拡散モデルに基づくゼロショット領域適応手法を提案する。
まず,原画像の領域を対象領域に転送することで,対象画像の合成にオフ・ザ・シェルフ拡散モデルを用いる。
次に、元の表現でソース画像と合成画像の両方を用いてモデルを訓練し、ドメイン・ロバスト表現を学習する。
論文 参考訳(メタデータ) (2024-03-20T14:58:09Z) - Real-World Image Variation by Aligning Diffusion Inversion Chain [53.772004619296794]
生成した画像と実世界の画像の間にはドメインギャップがあり、これは実世界の画像の高品質なバリエーションを生成する上での課題である。
実世界画像のアライメントによる変化(RIVAL)と呼ばれる新しい推論パイプラインを提案する。
我々のパイプラインは、画像生成プロセスとソース画像の反転チェーンを整列させることにより、画像の変動の生成品質を向上させる。
論文 参考訳(メタデータ) (2023-05-30T04:09:47Z) - Taming Normalizing Flows [22.15640952962115]
本稿では,正規化フローモデルを用いるアルゴリズムを提案する。
与えられた画像の正確な生成確率を計算することができるため,フローの正規化に着目する。
モデリングは、モデルをスクラッチからトレーニングすることなく、高速な微調整プロセスで達成され、数分でゴールを達成します。
論文 参考訳(メタデータ) (2022-11-29T18:56:04Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - One-Shot Adaptation of GAN in Just One CLIP [51.188396199083336]
本稿では,CLIP空間を統一した単一ショットGAN適応方式を提案する。
具体的には、CLIP誘導潜在最適化を用いて、ソースジェネレータ内の参照画像検索という2段階のトレーニング戦略を採用する。
対象のテクスチャで多様な出力を生成し,質的かつ定量的にベースラインモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T13:03:06Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Improving the Fairness of Deep Generative Models without Retraining [41.6580482370894]
GAN(Generative Adversarial Networks)は、観測データの基盤となる分布を学習し、顔合成を進める。
高品質な生成顔にもかかわらず、一部の少数グループはバイアス画像生成プロセスのためにトレーニングされたモデルから生成されることは稀である。
アウトプット顔面特性を再訓練することなくバランスをとるための解釈可能なベースライン法を提案する。
論文 参考訳(メタデータ) (2020-12-09T03:20:41Z) - Few-shot Image Generation with Elastic Weight Consolidation [53.556446614013105]
少ないショット画像生成は、利用可能なトレーニング例がほとんどなく、与えられたドメインのより多くのデータを生成することを目指している。
対象ドメインのいくつかの例に、追加のパラメータを導入することなく、事前訓練されたモデルを適用する。
我々は,異なる対象領域の高品質な結果を生成することにより,アルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-04T18:57:13Z) - Improving Face Recognition from Hard Samples via Distribution
Distillation Loss [131.61036519863856]
大きな顔のバリエーションは、顔認識の主要な課題である。
本研究では, 簡単な試料と硬質試料との性能ギャップを狭めるために, 新規な分散蒸留損失を提案する。
我々は、人種、解像度、ポーズに様々なバリエーションがある一般的な大規模顔のベンチマークとベンチマークの両方について広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-10T11:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。