論文の概要: VAEM: a Deep Generative Model for Heterogeneous Mixed Type Data
- arxiv url: http://arxiv.org/abs/2006.11941v1
- Date: Sun, 21 Jun 2020 23:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 11:49:05.017788
- Title: VAEM: a Deep Generative Model for Heterogeneous Mixed Type Data
- Title(参考訳): vaem:異種混合型データのための深い生成モデル
- Authors: Chao Ma, Sebastian Tschiatschek, Jos\'e Miguel Hern\'andez-Lobato,
Richard Turner, Cheng Zhang
- Abstract要約: VAEMは2段階的に訓練された深層生成モデルである。
VAEMは、深層生成モデルをうまく展開できる現実世界のアプリケーションの範囲を広げることを示す。
- 参考スコア(独自算出の注目度): 16.00692074660383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative models often perform poorly in real-world applications due to
the heterogeneity of natural data sets. Heterogeneity arises from data
containing different types of features (categorical, ordinal, continuous, etc.)
and features of the same type having different marginal distributions. We
propose an extension of variational autoencoders (VAEs) called VAEM to handle
such heterogeneous data. VAEM is a deep generative model that is trained in a
two stage manner such that the first stage provides a more uniform
representation of the data to the second stage, thereby sidestepping the
problems caused by heterogeneous data. We provide extensions of VAEM to handle
partially observed data, and demonstrate its performance in data generation,
missing data prediction and sequential feature selection tasks. Our results
show that VAEM broadens the range of real-world applications where deep
generative models can be successfully deployed.
- Abstract(参考訳): 深層生成モデルは、自然データセットの不均一性のため、実世界のアプリケーションではよく機能しない。
異質性は、異なる種類の特徴(カテゴリー、順序、連続など)を含むデータと、異なる境界分布を持つ同じタイプの特徴から生じる。
このような異種データを扱うためにVAEMと呼ばれる変分オートエンコーダの拡張を提案する。
VAEMは、第1段階がより均一なデータの表現を第2段階に提供し、不均一なデータによって引き起こされる問題をサイドステッピングするように、2段階的に訓練された深層生成モデルである。
VAEMの拡張により、部分的に観測されたデータを処理するとともに、データ生成、データ予測の欠如、シーケンシャルな特徴選択タスクのパフォーマンスを示す。
この結果から,VAEMは深層生成モデルをうまく展開できる現実世界のアプリケーションの範囲を広げることができた。
関連論文リスト
- DiverGen: Improving Instance Segmentation by Learning Wider Data Distribution with More Diverse Generative Data [48.31817189858086]
生成データは、モデルが学習できるデータ分布を拡大し、過剰適合を軽減できると主張している。
DiverGenは強力なX-Pasteよりも優れており、すべてのカテゴリで+1.1ボックスAPと+1.1マスクAPを達成でき、まれなカテゴリでは+1.9ボックスAPと+2.5マスクAPを達成できる。
論文 参考訳(メタデータ) (2024-05-16T15:30:18Z) - An improved tabular data generator with VAE-GMM integration [9.4491536689161]
本稿では,現在のアプローチの限界に対処する新しい変分オートエンコーダ(VAE)モデルを提案する。
本手法は,TVAEモデルにインスパイアされたベイジアン・ガウス混合モデル(BGM)をVAEアーキテクチャに組み込む。
我々は,2つの医療関連データセットを含む混合データ型を持つ実世界の3つのデータセットに対して,我々のモデルを徹底的に検証する。
論文 参考訳(メタデータ) (2024-04-12T12:31:06Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - A Variational Autoencoder for Heterogeneous Temporal and Longitudinal
Data [0.3749861135832073]
近年,経時的および経時的データを処理可能なVAEの拡張は,医療,行動モデリング,予測保守に応用されている。
本研究では,既存の時間的および縦的VAEをヘテロジニアスデータに拡張するヘテロジニアス縦型VAE(HL-VAE)を提案する。
HL-VAEは高次元データセットに対する効率的な推論を提供し、連続、カウント、カテゴリー、順序データのための可能性モデルを含む。
論文 参考訳(メタデータ) (2022-04-20T10:18:39Z) - Multimodal Data Fusion in High-Dimensional Heterogeneous Datasets via
Generative Models [16.436293069942312]
我々は、教師なしの方法で高次元異種データから確率的生成モデルを学習することに興味がある。
本稿では,指数関数的な分布系を通じて異なるデータ型を結合する一般的なフレームワークを提案する。
提案アルゴリズムは、実数値(ガウス)とカテゴリー(マルチノミカル)の特徴を持つ、よく遭遇する異種データセットについて詳細に述べる。
論文 参考訳(メタデータ) (2021-08-27T18:10:31Z) - Adapting deep generative approaches for getting synthetic data with
realistic marginal distributions [0.0]
可変オートエンコーダ(VAE)のような深層生成モデルは、元のデータからこのような合成データセットを作成するための一般的なアプローチである。
本稿では,バイモーダルおよびスキュードデータに対処する新しい手法,PTVAE(pre-transformation variational autoencoders)を提案する。
その結果、PTVAEアプローチはバイモーダルデータとスキューデータの両方において他よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-05-14T15:47:20Z) - Variational Selective Autoencoder: Learning from Partially-Observed
Heterogeneous Data [45.23338389559936]
本研究では,部分観測された異種データから表現を学習するための変分選択型オートエンコーダ(VSAE)を提案する。
vsaeは、観測データ、観測されていないデータ、およびインプテーションマスクの合同分布をモデル化することで、異種データの潜在依存関係を学習する。
その結果、データ生成や計算を含むさまざまな下流タスクの統一モデルが実現される。
論文 参考訳(メタデータ) (2021-02-25T04:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。