論文の概要: Evidential Sparsification of Multimodal Latent Spaces in Conditional
Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2010.09164v3
- Date: Mon, 18 Jan 2021 18:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:21:16.522698
- Title: Evidential Sparsification of Multimodal Latent Spaces in Conditional
Variational Autoencoders
- Title(参考訳): 条件付き変分オートエンコーダにおけるマルチモーダル潜時空間のエビデンシャルスカラー化
- Authors: Masha Itkina, Boris Ivanovic, Ransalu Senanayake, Mykel J.
Kochenderfer, and Marco Pavone
- Abstract要約: 訓練された条件付き変分オートエンコーダの離散潜時空間をスパース化する問題を考察する。
顕在的理論を用いて、特定の入力条件から直接証拠を受け取る潜在クラスを特定し、そうでないクラスをフィルタリングする。
画像生成や人間の行動予測などの多様なタスクの実験により,提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 63.46738617561255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrete latent spaces in variational autoencoders have been shown to
effectively capture the data distribution for many real-world problems such as
natural language understanding, human intent prediction, and visual scene
representation. However, discrete latent spaces need to be sufficiently large
to capture the complexities of real-world data, rendering downstream tasks
computationally challenging. For instance, performing motion planning in a
high-dimensional latent representation of the environment could be intractable.
We consider the problem of sparsifying the discrete latent space of a trained
conditional variational autoencoder, while preserving its learned
multimodality. As a post hoc latent space reduction technique, we use
evidential theory to identify the latent classes that receive direct evidence
from a particular input condition and filter out those that do not. Experiments
on diverse tasks, such as image generation and human behavior prediction,
demonstrate the effectiveness of our proposed technique at reducing the
discrete latent sample space size of a model while maintaining its learned
multimodality.
- Abstract(参考訳): 変分オートエンコーダの離散的潜在空間は、自然言語理解、人間の意図予測、視覚シーン表現など、多くの現実世界の問題に対するデータ分布を効果的に捉えることが示されている。
しかし、離散潜在空間は実世界のデータの複雑さを捉えるのに十分な大きさでなければならない。
例えば、高次元の潜在環境表現で動き計画を実行することは難解である。
学習されたマルチモダリティを保ちつつ、訓練された条件付き変分オートエンコーダの離散的潜在空間をスパースする問題を考える。
ポストホック潜在空間還元法として,特定の入力条件から直接的証拠を受け取る潜在クラスを同定し,そうでないクラスをフィルタする。
画像生成や人間の行動予測などの多様なタスクの実験は、学習された多モード性を維持しながら、モデルの離散潜在サンプル空間サイズを小さくする手法の有効性を実証する。
関連論文リスト
- Adaptive Learning of the Latent Space of Wasserstein Generative Adversarial Networks [7.958528596692594]
我々は、潜伏ワッサーシュタインガン(LWGAN)と呼ばれる新しい枠組みを提案する。
ワッサーシュタイン自己エンコーダとワッサーシュタイン GANを融合させ、データ多様体の内在次元を適応的に学習できるようにする。
我々は,LWGANが複数のシナリオにおいて,正しい固有次元を識別可能であることを示す。
論文 参考訳(メタデータ) (2024-09-27T01:25:22Z) - Learning Sparsity of Representations with Discrete Latent Variables [15.05207849434673]
本稿では,スパース深部潜伏生成モデルSDLGMを提案する。
表現の空間性は固定されていないが、事前に定義された制限の下で観察そのものに適合する。
推論と学習のために,MC勾配推定器をベースとした補正変分法を開発した。
論文 参考訳(メタデータ) (2023-04-03T12:47:18Z) - Progressive Multi-view Human Mesh Recovery with Self-Supervision [68.60019434498703]
既存のソリューションは通常、新しい設定への一般化性能の低下に悩まされる。
マルチビューヒューマンメッシュリカバリのためのシミュレーションに基づく新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-12-10T06:28:29Z) - Disentangling Variational Autoencoders [0.0]
変分オートエンコーダ(VAE)は、高次元データの入力セットを低次元の潜在空間に投影する。
文献から3つの異なるVAEモデルを実装し、6万枚の手書き数字のデータセットでそれらをトレーニングする。
本稿では,復号化画像の品質と遅延空間の歪みレベルとのトレードオフについて検討する。
論文 参考訳(メタデータ) (2022-11-14T19:22:41Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Smoothing the Generative Latent Space with Mixup-based Distance Learning [32.838539968751924]
我々は、我々の関心の大規模なデータセットも、転送可能なソースデータセットも利用できない状況を考える。
本稿では,ジェネレータとディスクリミネータの両方の特徴空間における遅延混合に基づく距離正規化を提案する。
論文 参考訳(メタデータ) (2021-11-23T06:39:50Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z) - Modal Uncertainty Estimation via Discrete Latent Representation [4.246061945756033]
本稿では,インプットとアウトプットの1対1マッピングを,忠実な不確実性対策とともに学習するディープラーニングフレームワークを提案する。
我々のフレームワークは、現在の最先端手法よりもはるかに正確な不確実性推定を実証している。
論文 参考訳(メタデータ) (2020-07-25T05:29:34Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。