論文の概要: Evaluating Lossy Compression Rates of Deep Generative Models
- arxiv url: http://arxiv.org/abs/2008.06653v1
- Date: Sat, 15 Aug 2020 05:08:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 20:45:55.770084
- Title: Evaluating Lossy Compression Rates of Deep Generative Models
- Title(参考訳): 深部生成モデルの損失圧縮率の評価
- Authors: Sicong Huang, Alireza Makhzani, Yanshuai Cao, Roger Grosse
- Abstract要約: 我々は、深部生成モデルの評価と比較にレート歪み曲線を用いる。
MNIST, CIFAR10データセット上で, VAE, GAN, および対向オートエンコーダの損失圧縮率を評価する。
- 参考スコア(独自算出の注目度): 14.473185421494422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of deep generative modeling has succeeded in producing
astonishingly realistic-seeming images and audio, but quantitative evaluation
remains a challenge. Log-likelihood is an appealing metric due to its grounding
in statistics and information theory, but it can be challenging to estimate for
implicit generative models, and scalar-valued metrics give an incomplete
picture of a model's quality. In this work, we propose to use rate distortion
(RD) curves to evaluate and compare deep generative models. While estimating RD
curves is seemingly even more computationally demanding than log-likelihood
estimation, we show that we can approximate the entire RD curve using nearly
the same computations as were previously used to achieve a single
log-likelihood estimate. We evaluate lossy compression rates of VAEs, GANs, and
adversarial autoencoders (AAEs) on the MNIST and CIFAR10 datasets. Measuring
the entire RD curve gives a more complete picture than scalar-valued metrics,
and we arrive at a number of insights not obtainable from log-likelihoods
alone.
- Abstract(参考訳): 深層生成モデリングの分野は驚くほど現実的な画像や音声を作り出すことに成功したが、定量的評価は依然として課題である。
ログライクリフッドは統計学や情報理論の基盤として魅力的な指標であるが、暗黙的な生成モデルの推定は困難であり、スカラー値のメトリクスはモデルの品質を不完全に表現する。
本研究では, レート歪み(rd)曲線を用いて, 深部生成モデルの評価と比較を行う。
RD曲線の推定は, 対数的推定よりも計算量的に要求されるように思われるが, 単一の対数的推定に使用されていたのとほぼ同じ計算でRD曲線全体を近似できることを示す。
mnistおよびcifar10データセットにおけるvaes,gansおよびadversarial autoencoder(aaes)の損失圧縮率を評価した。
RD曲線全体を測定することで、スカラー値のメトリクスよりも完全な図が得られます。
関連論文リスト
- Zeroth-order Informed Fine-Tuning for Diffusion Model: A Recursive Likelihood Ratio Optimizer [9.153197757307762]
確率拡散モデル(DM)は視覚生成のための強力なフレームワークである。
DMを効率的に調整する方法は重要な課題である。
本稿では,DMのための第0次情報調整パラダイムであるRecursive Likelihood Ratio (RLR)を提案する。
論文 参考訳(メタデータ) (2025-02-02T03:00:26Z) - Deep Partially Linear Transformation Model for Right-Censored Survival Data [9.991327369572819]
本稿では,推定,推測,予測のための汎用かつ柔軟なフレームワークとして,深部部分線形変換モデル(DPLTM)を提案する。
総合シミュレーション研究は、推定精度と予測パワーの両方の観点から提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-10T15:50:43Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Learning Summary Statistics for Bayesian Inference with Autoencoders [58.720142291102135]
我々は,ディープニューラルネットワークに基づくオートエンコーダの内部次元を要約統計として利用する。
パラメータ関連情報を全て符号化するエンコーダのインセンティブを作成するため,トレーニングデータの生成に使用した暗黙的情報にデコーダがアクセスできるようにする。
論文 参考訳(メタデータ) (2022-01-28T12:00:31Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Model-based multi-parameter mapping [0.0]
定量的MRイメージングは、よりリッチな情報の内容と標準化された測定基準のためにますます好まれている。
推定はしばしば、異なる量のデータを分離して解くために、データのノイズサブセットを仮定する。
代わりに、生成モデルは定式化され、パラメータ推定を共同で回復するために反転することができる。
論文 参考訳(メタデータ) (2021-02-02T17:00:11Z) - Identification of Latent Variables From Graphical Model Residuals [0.0]
本稿では,推定モデルの残差から遅延空間のプロキシを反復的に導出することにより,DAGを推定する際に潜伏空間を制御する新しい手法を提案する。
結果の予測の改善は本質的にカプセル化されており,既成モデルと比較して一定の限界を超えないことを示す。
論文 参考訳(メタデータ) (2021-01-07T02:28:49Z) - Robust Compressed Sensing using Generative Models [98.64228459705859]
本稿では,Median-of-Means (MOM) にヒントを得たアルゴリズムを提案する。
我々のアルゴリズムは、外れ値が存在する場合でも、重み付きデータの回復を保証する。
論文 参考訳(メタデータ) (2020-06-16T19:07:41Z) - TraDE: Transformers for Density Estimation [101.20137732920718]
TraDEは自己回帰密度推定のための自己アテンションに基づくアーキテクチャである。
本稿では, 生成したサンプルを用いた回帰, 分布外検出, トレーニングデータにおける雑音に対する頑健性などのタスクについて述べる。
論文 参考訳(メタデータ) (2020-04-06T07:32:51Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。