論文の概要: An adaptive dimension reduction algorithm for latent variables of
variational autoencoder
- arxiv url: http://arxiv.org/abs/2111.08493v1
- Date: Mon, 15 Nov 2021 16:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 13:45:47.310698
- Title: An adaptive dimension reduction algorithm for latent variables of
variational autoencoder
- Title(参考訳): 変分オートエンコーダの潜時変数に対する適応次元削減アルゴリズム
- Authors: Yiran Dong and Chuanhou Gao
- Abstract要約: 我々は,潜在変数ベクトルの次元を自動的に学習できる適応次元削減アルゴリズムを開発した。
このアルゴリズムの普遍性と効率性を示す6つのデータセットに対して実験結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constructed by the neural network, variational autoencoder has the
overfitting problem caused by setting too many neural units, we develop an
adaptive dimension reduction algorithm that can automatically learn the
dimension of latent variable vector, moreover, the dimension of every hidden
layer. This approach not only apply to the variational autoencoder but also
other variants like Conditional VAE(CVAE), and we show the empirical results on
six data sets which presents the universality and efficiency of this algorithm.
The key advantages of this algorithm is that it can converge the dimension of
latent variable vector which approximates the dimension reaches minimum loss of
variational autoencoder(VAE), also speeds up the generating and computing speed
by reducing the neural units.
- Abstract(参考訳): ニューラルネットワークによって構築された変分オートエンコーダは、多すぎるニューラルネットワークユニットの設定によって引き起こされるオーバーフィッティング問題を持ち、潜在変数ベクトルの次元を自動的に学習できる適応次元縮小アルゴリズムを開発した。
このアプローチは、変分オートエンコーダだけでなく、条件付きVAE(CVAE)のような他の変種にも適用でき、このアルゴリズムの普遍性と効率を示す6つのデータセットに対して実験結果を示す。
このアルゴリズムの主な利点は、変分オートエンコーダ(VAE)の最小損失に達する次元を近似する潜在変数ベクトルの次元を収束させ、また、ニューラルユニットを小さくすることで生成速度と演算速度を高速化できることである。
関連論文リスト
- Deep Variational Multivariate Information Bottleneck -- A Framework for
Variational Losses [0.0]
既存の変分法を統合するためのフレームワークを導入し、新しいものを設計する。
データの構造によくマッチするアルゴリズムは、より優れた潜在空間を生成することを示す。
論文 参考訳(メタデータ) (2023-10-05T04:59:58Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Dimension Reduction for time series with Variational AutoEncoders [2.905751301655124]
本研究では,ウェーブレット分解と畳み込み変分オートエンコーダの比較を行った。
変動型オートエンコーダはECGのような高次元データの次元を小さくする良い選択肢であることを示す。
論文 参考訳(メタデータ) (2022-04-23T12:26:01Z) - Metalearning: Sparse Variable-Structure Automata [0.0]
本研究では,動的スパース符号ベクトルをフライ時に使用する基底ベクトルの数を増やすメタラーニング手法を提案する。
アクター批判アルゴリズムが展開され、必要な精度のレベルに関する特徴の適切な寸法を自動的に選択する。
論文 参考訳(メタデータ) (2021-01-30T21:32:23Z) - Unbiased Gradient Estimation for Variational Auto-Encoders using Coupled
Markov Chains [34.77971292478243]
変分オートエンコーダ(VAE)は、オートエンコーダのようなアーキテクチャで2つのニューラルネットワークを持つ、潜伏変数モデルである。
ログ型勾配の偏りのない推定器を導入することにより,VAEのトレーニング手法を開発する。
偏りのない推定器を装着したVAEは予測性能が向上することを示した。
論文 参考訳(メタデータ) (2020-10-05T08:11:55Z) - An Analysis of Alternating Direction Method of Multipliers for
Feed-forward Neural Networks [2.8747398859585376]
このアプローチの背後にある動機は、スケーラブルで並列化可能なニューラルネットワークのトレーニング方法を実行することにある。
我々はそれぞれSGDとAdamと比較して6.9%と6.8%の精度を達成した。
論文 参考訳(メタデータ) (2020-09-06T22:13:54Z) - Meta-Learning Divergences of Variational Inference [49.164944557174294]
変分推論(VI)は、近似ベイズ推論において重要な役割を果たす。
本稿では,興味ある課題に適した分散度を学習するためのメタ学習アルゴリズムを提案する。
提案手法はガウス混合分布近似の標準VIより優れていることを示す。
論文 参考訳(メタデータ) (2020-07-06T17:43:01Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - Discovering Representations for Black-box Optimization [73.59962178534361]
ブラックボックス最適化符号化は手作業で行うのではなく,自動的に学習可能であることを示す。
学習された表現は、標準的なMAP-Elitesよりも桁違いに少ない評価で高次元の問題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-03-09T20:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。