論文の概要: Robust Training of Vector Quantized Bottleneck Models
- arxiv url: http://arxiv.org/abs/2005.08520v1
- Date: Mon, 18 May 2020 08:23:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:45:36.909595
- Title: Robust Training of Vector Quantized Bottleneck Models
- Title(参考訳): ベクトル量子化ボトルネックモデルのロバストトレーニング
- Authors: Adrian {\L}a\'ncucki, Jan Chorowski, Guillaume Sanchez, Ricard Marxer,
Nanxin Chen, Hans J.G.A. Dolfing, Sameer Khurana, Tanel Alum\"ae, Antoine
Laurent
- Abstract要約: ベクトル量子変分自動エンコーダモデル(VQ-VAEs)を用いた離散表現の信頼性と効率的な訓練法を示す。
教師なし表現学習では、変分オートエンコーダ(VAE)のような連続潜伏変数モデルの代替となる。
- 参考スコア(独自算出の注目度): 21.540133031071438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we demonstrate methods for reliable and efficient training of
discrete representation using Vector-Quantized Variational Auto-Encoder models
(VQ-VAEs). Discrete latent variable models have been shown to learn nontrivial
representations of speech, applicable to unsupervised voice conversion and
reaching state-of-the-art performance on unit discovery tasks. For unsupervised
representation learning, they became viable alternatives to continuous latent
variable models such as the Variational Auto-Encoder (VAE). However, training
deep discrete variable models is challenging, due to the inherent
non-differentiability of the discretization operation. In this paper we focus
on VQ-VAE, a state-of-the-art discrete bottleneck model shown to perform on par
with its continuous counterparts. It quantizes encoder outputs with on-line
$k$-means clustering. We show that the codebook learning can suffer from poor
initialization and non-stationarity of clustered encoder outputs. We
demonstrate that these can be successfully overcome by increasing the learning
rate for the codebook and periodic date-dependent codeword re-initialization.
As a result, we achieve more robust training across different tasks, and
significantly increase the usage of latent codewords even for large codebooks.
This has practical benefit, for instance, in unsupervised representation
learning, where large codebooks may lead to disentanglement of latent
representations.
- Abstract(参考訳): 本稿では,Vector-Quantized Variational Auto-Encoder Model (VQ-VAEs) を用いた離散表現の信頼性と効率的な訓練方法を示す。
離散潜在変数モデルは、教師なし音声変換に適応し、単位発見タスクにおける最先端の性能に達する非自明な音声表現を学習することが示されている。
教師なし表現学習では、変分オートエンコーダ(VAE)のような連続潜伏変数モデルの代替となる。
しかし、離散化演算の非微分性のため、深層離散変数モデルの訓練は困難である。
本稿では,最先端の離散ボトルネックモデルであるVQ-VAEに着目した。
オンライン$k$-meansクラスタリングでエンコーダ出力を定量化する。
コードブック学習は,クラスタ化エンコーダ出力の初期化や非定常性に悩まされる可能性がある。
コードブックの学習率と周期的な日付依存コードワードの再初期化を増加させることにより,これらを効果的に克服できることを実証する。
その結果,様々なタスクにまたがってより堅牢なトレーニングを実現し,大規模コードブックにおいても潜在コードワードの利用を大幅に増加させることができた。
これは例えば、大きなコードブックが潜在表現の絡み合いを生じさせる可能性がある教師なし表現学習において、実用的な利点がある。
関連論文リスト
- Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Entropy optimized semi-supervised decomposed vector-quantized
variational autoencoder model based on transfer learning for multiclass text
classification and generation [3.9318191265352196]
多クラステキスト分類とテキスト生成のための半教師付き離散潜在変数モデルを提案する。
提案モデルは,量子化変圧器モデルの学習に伝達学習の概念を用いる。
実験結果から,提案モデルが最先端モデルを大幅に上回ったことが示唆された。
論文 参考訳(メタデータ) (2021-11-10T07:07:54Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。