論文の概要: Dual Contradistinctive Generative Autoencoder
- arxiv url: http://arxiv.org/abs/2011.10063v1
- Date: Thu, 19 Nov 2020 19:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 21:16:40.919116
- Title: Dual Contradistinctive Generative Autoencoder
- Title(参考訳): Dual Contradistinctive Generative Autoencoder
- Authors: Gaurav Parmar, Dacheng Li, Kwonjoon Lee, Zhuowen Tu
- Abstract要約: 生成型オートエンコーダを改善するために, 2つの非識別的損失を持つ新しい生成型オートエンコーダモデルを提案する。
我々のモデルは、DC-VAE(Double Antidistinctive Generative Autoencoder)と呼ばれ、インスタンスレベルの識別的損失とセットレベルの対角的損失を統合する。
- 参考スコア(独自算出の注目度): 29.76210308781724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new generative autoencoder model with dual contradistinctive
losses to improve generative autoencoder that performs simultaneous inference
(reconstruction) and synthesis (sampling). Our model, named dual
contradistinctive generative autoencoder (DC-VAE), integrates an instance-level
discriminative loss (maintaining the instance-level fidelity for the
reconstruction/synthesis) with a set-level adversarial loss (encouraging the
set-level fidelity for there construction/synthesis), both being
contradistinctive. Extensive experimental results by DC-VAE across different
resolutions including 32x32, 64x64, 128x128, and 512x512 are reported. The two
contradistinctive losses in VAE work harmoniously in DC-VAE leading to a
significant qualitative and quantitative performance enhancement over the
baseline VAEs without architectural changes. State-of-the-art or competitive
results among generative autoencoders for image reconstruction, image
synthesis, image interpolation, and representation learning are observed.
DC-VAE is a general-purpose VAE model, applicable to a wide variety of
downstream tasks in computer vision and machine learning.
- Abstract(参考訳): 本稿では, 同時推論(再構成)と合成(サンプリング)を行う生成自己エンコーダを改善するために, 二重不連続損失を持つ新たな生成自己エンコーダモデルを提案する。
本モデルはdual contradistinctive generative autoencoder (dc-vae) と名付けられ、インスタンスレベルの識別損失(再構築/合成のインスタンスレベルの忠実性を維持する)と、セットレベルの敵対的損失(構築/合成のためのセットレベルの忠実性を高める)を両立させる。
32x32, 64x64, 128x128, 512x512の異なる解像度のdc-vaeによる広範囲な実験結果が報告されている。
直流-VAEにおけるVAEの2つの不連続的な損失は、アーキテクチャ上の変更なしに、ベースラインのVAEに対して有意な質的かつ定量的な性能向上をもたらす。
画像再構成、画像合成、画像補間、表現学習のための生成的オートエンコーダの最先端または競争結果が観察される。
DC-VAEは汎用のVAEモデルであり、コンピュータビジョンや機械学習における様々な下流タスクに適用できる。
関連論文リスト
- RSC-VAE: Recoding Semantic Consistency Based VAE for One-Class Novelty
Detection [9.223853439465582]
我々は、典型的な再構成モデルである変分自動エンコーダ(VAE)の潜時空間を利用し、これを革新的に3つの領域に分割する。
この仮説に基づいて,新たなVAEアーキテクチャであるRSC-VAE(Recoding Semantic Consistency Based VAE)を提案する。
論文 参考訳(メタデータ) (2023-05-07T13:36:54Z) - StraIT: Non-autoregressive Generation with Stratified Image Transformer [63.158996766036736]
Stratified Image Transformer(StraIT)は、純粋な非自己回帰(NAR)生成モデルである。
実験の結果,StraIT は NAR 生成を著しく改善し,既存の DM および AR 手法より優れていた。
論文 参考訳(メタデータ) (2023-03-01T18:59:33Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - DiVAE: Photorealistic Images Synthesis with Denoising Diffusion Decoder [73.1010640692609]
本稿では,拡散デコーダ(DiVAE)を用いたVQ-VAEアーキテクチャモデルを提案する。
我々のモデルは最先端の成果を達成し、さらに多くのフォトリアリスティックな画像を生成する。
論文 参考訳(メタデータ) (2022-06-01T10:39:12Z) - The Transitive Information Theory and its Application to Deep Generative
Models [0.0]
変分オートエンコーダ(VAE)は2つの反対方向に押される。
既存の方法では、圧縮と再構成の間のレート歪みのトレードオフに問題を絞り込む。
一般化のために学習した表現を再結合する機構とともに,非交叉表現の階層構造を学習するシステムを開発する。
論文 参考訳(メタデータ) (2022-03-09T22:35:02Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Self-Supervised Variational Auto-Encoders [10.482805367361818]
自己教師付き変分自動エンコーダ(self-supervised Variational Auto-Encoder)と呼ばれる新しい生成モデルについて述べる。
このモデルのクラスは、目的関数を単純化しながら、条件付きサンプリングと条件なしサンプリングの両方を実行することができる。
本稿では,3つのベンチマーク画像データ(Cifar10, Imagenette64, CelebA)に対する提案手法の性能について述べる。
論文 参考訳(メタデータ) (2020-10-05T13:42:28Z) - Toward a Controllable Disentanglement Network [22.968760397814993]
本稿では, 画像編集における歪みの程度を制御し, 歪み強度と復元品質のバランスをとることにより, 歪み画像表現を学習する2つの重要な問題に対処する。
ソフトターゲット表現の実際の値空間を探索することにより、指定された特性を持つ新規な画像を合成することができる。
論文 参考訳(メタデータ) (2020-01-22T16:54:07Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。