論文の概要: Balanced Marginal and Joint Distributional Learning via Mixture
Cramer-Wold Distance
- arxiv url: http://arxiv.org/abs/2312.03307v1
- Date: Wed, 6 Dec 2023 06:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 15:52:21.457587
- Title: Balanced Marginal and Joint Distributional Learning via Mixture
Cramer-Wold Distance
- Title(参考訳): Mixture Cramer-Wold Distance を用いたバランス・マルジナル・ジョイント分散学習
- Authors: Seunghwan An, Sungchul Hong, Jong-June Jeon
- Abstract要約: 本稿では, 異種度, クレーマー-ウォルド混合距離について紹介する。
本手法により, 限界分布情報と共同分布情報の両方を同時に取得できる。
CWDAE(Cramer-Wold Distributional AutoEncoder)と呼ばれる新しい生成モデルを提案する。
- 参考スコア(独自算出の注目度): 0.6445605125467574
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the process of training a generative model, it becomes essential to
measure the discrepancy between two high-dimensional probability distributions:
the generative distribution and the ground-truth distribution of the observed
dataset. Recently, there has been growing interest in an approach that involves
slicing high-dimensional distributions, with the Cramer-Wold distance emerging
as a promising method. However, we have identified that the Cramer-Wold
distance primarily focuses on joint distributional learning, whereas
understanding marginal distributional patterns is crucial for effective
synthetic data generation. In this paper, we introduce a novel measure of
dissimilarity, the mixture Cramer-Wold distance. This measure enables us to
capture both marginal and joint distributional information simultaneously, as
it incorporates a mixture measure with point masses on standard basis vectors.
Building upon the mixture Cramer-Wold distance, we propose a new generative
model called CWDAE (Cramer-Wold Distributional AutoEncoder), which shows
remarkable performance in generating synthetic data when applied to real
tabular datasets. Furthermore, our model offers the flexibility to adjust the
level of data privacy with ease.
- Abstract(参考訳): 生成モデルの訓練の過程では、観測されたデータセットの生成分布と地上構造分布の2つの高次元確率分布の差を測定することが不可欠となる。
近年,高次元分布をスライスするアプローチへの関心が高まっており,クレーマー-ウォルド距離が期待できる方法として浮上している。
しかし,クレーマー・ウォルド距離は主に共同分布学習に焦点が当てられているのに対し,限界分布パターンの理解は効果的な合成データ生成に不可欠である。
本稿では,クレーマー-ウォルド混合距離という異種性の新たな尺度を紹介する。
この測度は、標準基底ベクトル上に点質量と混合測度を組み込むので、辺分布情報とジョイント分布情報の両方を同時に捉えることができる。
本研究では,cwdae(cramer-wold distributional autoencoder)と呼ばれる新しい生成モデルを提案する。
さらに、私たちのモデルはデータプライバシのレベルを容易に調整する柔軟性を提供します。
関連論文リスト
- Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Deep Generative Sampling in the Dual Divergence Space: A Data-efficient & Interpretative Approach for Generative AI [29.13807697733638]
自然画像の生成的サンプリングにおける顕著な成果の上に構築する。
我々は、画像に似たサンプルを生成するという、画期的な挑戦を、潜在的に過度に野心的に提案する。
統計上の課題は、小さなサンプルサイズであり、時には数百人の被験者で構成されている。
論文 参考訳(メタデータ) (2024-04-10T22:35:06Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [60.98692028151328]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,この学習規則が将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
我々は拡散モデルに一般結果を特化し、自己消費ループ内での最適な早期停止の有効性などの微妙な洞察を提供する。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Joint Distributional Learning via Cramer-Wold Distance [0.7614628596146602]
高次元データセットの共分散学習を容易にするために,クレーマー-ウォルド距離正規化を導入し,クレーマー-ウォルド距離正規化法を提案する。
また、フレキシブルな事前モデリングを可能にする2段階学習手法を導入し、集約後と事前分布のアライメントを改善する。
論文 参考訳(メタデータ) (2023-10-25T05:24:23Z) - Ensemble Modeling for Multimodal Visual Action Recognition [50.38638300332429]
マルチモーダル動作認識のためのアンサンブルモデリング手法を提案する。
我々は,MECCANO[21]データセットの長期分布を処理するために,焦点損失の変種を用いて,個別のモダリティモデルを個別に訓練する。
論文 参考訳(メタデータ) (2023-08-10T08:43:20Z) - Differentiating Metropolis-Hastings to Optimize Intractable Densities [51.16801956665228]
我々はメトロポリス・ハスティングス検層の自動識別アルゴリズムを開発した。
難解な対象密度に対する期待値として表現された目的に対して勾配に基づく最適化を適用する。
論文 参考訳(メタデータ) (2023-06-13T17:56:02Z) - Mixture of von Mises-Fisher distribution with sparse prototypes [0.0]
von Mises-Fisher分布の混合は、単位超球面上のデータをクラスタリングするのに使うことができる。
本稿では,l1のペナル化確率を用いてフォン・ミーゼス混合物を推定する。
論文 参考訳(メタデータ) (2022-12-30T08:00:38Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。