論文の概要: Adversarial Code Learning for Image Generation
- arxiv url: http://arxiv.org/abs/2001.11539v1
- Date: Thu, 30 Jan 2020 19:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 12:02:31.782477
- Title: Adversarial Code Learning for Image Generation
- Title(参考訳): 画像生成のためのadversarial code learning
- Authors: Jiangbo Yuan, Bing Wu, Wanying Ding, Qing Ping, and Zhendong Yu
- Abstract要約: ACL(Adversarial Code Learning)モジュールは、画像生成性能をいくつかのディープモデルに改善する。
我々は,元来のGANとよく似た,対角的な学習プロセスで学習を行う。
我々のモデルは、画像生成タスクの汎用性を示す重要な改善を達成している。
- 参考スコア(独自算出の注目度): 6.471449014998549
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce the "adversarial code learning" (ACL) module that improves
overall image generation performance to several types of deep models. Instead
of performing a posterior distribution modeling in the pixel spaces of
generators, ACLs aim to jointly learn a latent code with another image
encoder/inference net, with a prior noise as its input. We conduct the learning
in an adversarial learning process, which bears a close resemblance to the
original GAN but again shifts the learning from image spaces to prior and
latent code spaces. ACL is a portable module that brings up much more
flexibility and possibilities in generative model designs. First, it allows
flexibility to convert non-generative models like Autoencoders and standard
classification models to decent generative models. Second, it enhances existing
GANs' performance by generating meaningful codes and images from any part of
the prior. We have incorporated our ACL module with the aforementioned
frameworks and have performed experiments on synthetic, MNIST, CIFAR-10, and
CelebA datasets. Our models have achieved significant improvements which
demonstrated the generality for image generation tasks.
- Abstract(参考訳): 本稿では,複数種類の深層モデルに対して,画像生成全体のパフォーマンスを向上させる"adversarial code learning"(acl)モジュールを提案する。
aclsは、ジェネレータの画素空間で後方分布モデリングを行う代わりに、以前のノイズを入力として、別の画像エンコーダ/参照ネットと潜在コードを共同学習することを目指している。
我々は、元のganとよく似ているが、再び学習を画像空間から事前コード空間と潜在コード空間にシフトさせる、敵対的学習プロセスで学習を行う。
ACLは、生成モデル設計において、ずっと柔軟性と可能性をもたらすポータブルモジュールである。
まず、オートエンコーダや標準分類モデルのような非生成モデルから適切な生成モデルに変換する柔軟性がある。
第二に、前のどの部分から有意義なコードや画像を生成することで、既存のGANのパフォーマンスを向上させる。
ACLモジュールを前述のフレームワークに組み込んで,合成,MNIST,CIFAR-10,CelebAデータセットの実験を行った。
我々のモデルは画像生成タスクの汎用性を示す重要な改善を達成している。
関連論文リスト
- Diversify, Don't Fine-Tune: Scaling Up Visual Recognition Training with
Synthetic Images [37.29348016920314]
そこで本研究では,既製の生成モデルを利用して合成訓練画像を生成する新しいフレームワークを提案する。
クラス名の曖昧さ、ナイーブなプロンプトの多様性の欠如、ドメインシフトに対処する。
我々のフレームワークは、より合成データによる認識モデルの性能を一貫して向上させる。
論文 参考訳(メタデータ) (2023-12-04T18:35:27Z) - SODA: Bottleneck Diffusion Models for Representation Learning [75.7331354734152]
本稿では,表現学習のための自己教師付き拡散モデルSODAを紹介する。
このモデルには、ソースビューをコンパクトな表現に蒸留するイメージエンコーダが組み込まれており、関連する新規ビューの生成を導く。
エンコーダと復調復調復調復調復調復調復調復調復号器の密集ボトルネックを付与することにより,拡散モデルを強力な表現学習器に変換することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:53:34Z) - Reinforcement Learning from Diffusion Feedback: Q* for Image Search [2.5835347022640254]
モデル非依存学習を用いた画像生成のための2つのモデルを提案する。
RLDFは、事前保存された報酬関数誘導による視覚模倣のための特異なアプローチである。
クラス一貫性と強力な視覚的多様性を示す様々な領域にまたがる高品質な画像を生成する。
論文 参考訳(メタデータ) (2023-11-27T09:20:12Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - Not All Image Regions Matter: Masked Vector Quantization for
Autoregressive Image Generation [78.13793505707952]
既存の自己回帰モデルは、まず画像再構成のための潜伏空間のコードブックを学習し、学習したコードブックに基づいて自己回帰的に画像生成を完了する2段階生成パラダイムに従っている。
そこで本研究では,Masked Quantization VAE (MQ-VAE) Stackモデルを用いた2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T02:15:53Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Learned Image Compression with Gaussian-Laplacian-Logistic Mixture Model
and Concatenated Residual Modules [22.818632387206257]
学習画像圧縮の2つの重要な要素は、潜在表現のエントロピーモデルと符号化/復号化ネットワークアーキテクチャである。
本稿では,よりフレキシブルなガウス・ラプラシア・ロジスティック混合モデル(GLLMM)を提案する。
符号化/復号化ネットワーク設計部では、複数の残差ブロックを追加のショートカット接続で直列接続する残差ブロック(CRB)を提案する。
論文 参考訳(メタデータ) (2021-07-14T02:54:22Z) - Decoupling Global and Local Representations via Invertible Generative
Flows [47.366299240738094]
標準画像ベンチマークによる実験結果から, 密度推定, 画像生成, 教師なし表現学習の観点から, モデルの有効性が示された。
この研究は、確率に基づく目的を持つ生成モデルが疎結合表現を学習でき、明示的な監督を必要としないことを示した。
論文 参考訳(メタデータ) (2020-04-12T03:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。