論文の概要: Depthwise Discrete Representation Learning
- arxiv url: http://arxiv.org/abs/2004.05462v1
- Date: Sat, 11 Apr 2020 18:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 10:07:22.433167
- Title: Depthwise Discrete Representation Learning
- Title(参考訳): 奥行き離散表現学習
- Authors: Iordanis Fostiropoulos
- Abstract要約: 離散表現の学習の最近の進歩は、言語、オーディオ、ビジョンを含むタスクにおいて、アート結果の状態を導いている。
単語、音素、形状などの潜時要因は連続ではなく離散潜時変数で表される。
ベクトル量子化変分オートエンコーダ(VQVAE)は、複数の領域において顕著な結果をもたらす。
- 参考スコア(独自算出の注目度): 2.728575246952532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in learning Discrete Representations as opposed to
continuous ones have led to state of art results in tasks that involve
Language, Audio and Vision. Some latent factors such as words, phonemes and
shapes are better represented by discrete latent variables as opposed to
continuous. Vector Quantized Variational Autoencoders (VQVAE) have produced
remarkable results in multiple domains. VQVAE learns a prior distribution $z_e$
along with its mapping to a discrete number of $K$ vectors (Vector
Quantization). We propose applying VQ along the feature axis. We hypothesize
that by doing so, we are learning a mapping between the codebook vectors and
the marginal distribution of the prior feature space. Our approach leads to
33\% improvement as compared to prevous discrete models and has similar
performance to state of the art auto-regressive models (e.g. PixelSNAIL). We
evaluate our approach on a static prior using an artificial toy dataset
(blobs). We further evaluate our approach on benchmarks for CIFAR-10 and
ImageNet.
- Abstract(参考訳): 近年の離散表現の学習の進歩は, 言語, 音声, 視覚に関わる課題において, 芸術的成果の達成につながっている。
単語、音素、形状といったいくつかの潜在要因は連続ではなく離散的潜在変数で表される方がよい。
ベクトル量子化変分オートエンコーダ(VQVAE)は、複数の領域において顕著な結果をもたらす。
VQVAE は以前の分布 $z_e$ と、離散数の$K$ベクトルへの写像(ベクトル量子化)を学習する。
特徴軸に沿ってVQを適用することを提案する。
我々は、コードブックベクトルと以前の特徴空間の限界分布の間のマッピングを学習していると仮定する。
このアプローチは,先行する離散モデルと比較して33\%改善し,アート自己回帰モデル(例えばpixelsnail)の状況と類似した性能を示す。
我々は,このアプローチを人工玩具データセット(blobs)を用いて静的事前評価する。
CIFAR-10 と ImageNet のベンチマークに対するアプローチをさらに評価する。
関連論文リスト
- LASERS: LAtent Space Encoding for Representations with Sparsity for Generative Modeling [3.9426000822656224]
より潜在的な空間はより表現力が高く、ベクトル量子化アプローチよりも表現性がよいことを示す。
以上の結果から,VQ手法の真の利点は,潜伏空間の離散化ではなく,潜伏空間の損失圧縮によるものである可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-16T08:20:58Z) - LL-VQ-VAE: Learnable Lattice Vector-Quantization For Efficient
Representations [0.0]
学習可能な格子ベクトル量子化を導入し、離散表現の学習に有効であることを示す。
LL-VQ-VAEと呼ばれるこの手法は、VQ-VAEのベクトル量子化層を格子ベースの離散化に置き換える。
VQ-VAEと比較して、同じトレーニング条件下での低い再構成誤差、短時間のトレーニング、一定数のパラメータで得られる。
論文 参考訳(メタデータ) (2023-10-13T20:03:18Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Diffusion bridges vector quantized Variational AutoEncoders [0.0]
我々のモデルは,ミニイメージネットデータセットに先行する自己回帰と競合することを示す。
我々のフレームワークは、標準のVQ-VAEを拡張し、エンドツーエンドのトレーニングを可能にします。
論文 参考訳(メタデータ) (2022-02-10T08:38:12Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - How to Design Sample and Computationally Efficient VQA Models [53.65668097847456]
テキストを確率的プログラムとして表現し,イメージをオブジェクトレベルのシーングラフとして表現することが,これらのデシラタを最も満足していることが判明した。
既存のモデルを拡張して,これらのソフトプログラムとシーングラフを活用して,エンドツーエンドで質問応答ペアをトレーニングします。
論文 参考訳(メタデータ) (2021-03-22T01:48:16Z) - Robust Training of Vector Quantized Bottleneck Models [21.540133031071438]
ベクトル量子変分自動エンコーダモデル(VQ-VAEs)を用いた離散表現の信頼性と効率的な訓練法を示す。
教師なし表現学習では、変分オートエンコーダ(VAE)のような連続潜伏変数モデルの代替となる。
論文 参考訳(メタデータ) (2020-05-18T08:23:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。