論文の概要: A Generic Approach for Enhancing GANs by Regularized Latent Optimization
- arxiv url: http://arxiv.org/abs/2112.03502v1
- Date: Tue, 7 Dec 2021 05:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 00:56:51.518698
- Title: A Generic Approach for Enhancing GANs by Regularized Latent Optimization
- Title(参考訳): 正規化潜在最適化によるGANの一般化手法
- Authors: Yufan Zhou, Chunyuan Li, Changyou Chen, Jinhui Xu
- Abstract要約: 本稿では,事前学習したGANを効果的かつシームレスに拡張できる,エミュレーティブモデル推論と呼ばれる汎用フレームワークを提案する。
我々の基本的な考え方は、ワッサーシュタイン勾配流法を用いて与えられた要求に対する最適潜時分布を効率的に推算することである。
- 参考スコア(独自算出の注目度): 79.00740660219256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapidly growing model complexity and data volume, training deep
generative models (DGMs) for better performance has becoming an increasingly
more important challenge. Previous research on this problem has mainly focused
on improving DGMs by either introducing new objective functions or designing
more expressive model architectures. However, such approaches often introduce
significantly more computational and/or designing overhead. To resolve such
issues, we introduce in this paper a generic framework called {\em
generative-model inference} that is capable of enhancing pre-trained GANs
effectively and seamlessly in a variety of application scenarios. Our basic
idea is to efficiently infer the optimal latent distribution for the given
requirements using Wasserstein gradient flow techniques, instead of re-training
or fine-tuning pre-trained model parameters. Extensive experimental results on
applications like image generation, image translation, text-to-image
generation, image inpainting, and text-guided image editing suggest the
effectiveness and superiority of our proposed framework.
- Abstract(参考訳): モデル複雑性とデータボリュームが急速に増加し、パフォーマンス向上のための深層生成モデル(DGM)のトレーニングがますます重要になっている。
この問題に関するこれまでの研究は主に、新しい目的関数を導入するか、より表現力のあるモデルアーキテクチャを設計することによって、DGMの改善に焦点を当ててきた。
しかし、このようなアプローチは計算量や設計のオーバーヘッドを大幅に増加させることが多い。
このような問題を解決するために,本論文では,様々なアプリケーションシナリオにおいて,事前学習したGANを効果的かつシームレスに拡張できる,ジェネリックフレームワークである「ジェネレーティブ・モデル推論」を紹介する。
我々の基本的な考え方は、トレーニング済みモデルパラメータの再学習や微調整の代わりに、ワッサーシュタイン勾配流法を用いて与えられた要件に対する最適潜時分布を効率的に推定することである。
画像生成,画像翻訳,テキスト対画像生成,画像インパインティング,テキストガイド画像編集などのアプリケーションにおける広範な実験結果から,提案手法の有効性と優位性が示唆された。
関連論文リスト
- Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Aligning Optimization Trajectories with Diffusion Models for Constrained
Design Generation [17.164961143132473]
本稿では,拡散モデルのサンプリング軌跡と従来の物理法に基づく最適化軌跡との整合性を示す学習フレームワークを提案する。
提案手法では,高コストプリプロセッシングや外部サロゲートモデル,ラベル付きデータの追加を必要とせずに,実用的で高性能な設計を2段階で生成することができる。
この結果から, TAは分布内構成における最先端の深層生成モデルより優れ, 推論計算コストを半減することがわかった。
論文 参考訳(メタデータ) (2023-05-29T09:16:07Z) - IRGen: Generative Modeling for Image Retrieval [49.73420524424285]
我々はシーケンス・ツー・シーケンス・モデルを用いて画像検索を生成モデルの一形態として再キャストする。
我々のフレームワークIRGenは、エンドツーエンドの微分検索を可能にする統一モデルである。
論文 参考訳(メタデータ) (2023-03-17T17:07:36Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。