論文の概要: Generative Archimedean Copulas
- arxiv url: http://arxiv.org/abs/2102.11351v2
- Date: Wed, 24 Feb 2021 02:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 03:57:50.957921
- Title: Generative Archimedean Copulas
- Title(参考訳): 生成的アルキメデス・コピュラス
- Authors: Yuting Ng, Ali Hasan, Khalil Elkhalil, Vahid Tarokh
- Abstract要約: 多次元累積分布関数(CDF)をコーミュラ形式で学習するための新しい生成モデリング手法を提案する。
我々はアルキメデスと階層的アルキメデスのコプラと呼ばれるある種のコプラを、その相似表現と異なる尾の依存関係をモデル化する能力で人気があると考えている。
- 参考スコア(独自算出の注目度): 27.705956325584026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new generative modeling technique for learning multidimensional
cumulative distribution functions (CDFs) in the form of copulas. Specifically,
we consider certain classes of copulas known as Archimedean and hierarchical
Archimedean copulas, popular for their parsimonious representation and ability
to model different tail dependencies. We consider their representation as
mixture models with Laplace transforms of latent random variables from
generative neural networks. This alternative representation allows for easy
sampling and computational efficiencies especially in high dimensions. We
additionally describe multiple methods for optimizing the model parameters.
Finally, we present empirical results that demonstrate the efficacy of our
proposed method in learning multidimensional CDFs and its computational
efficiency compared to existing methods.
- Abstract(参考訳): 多次元累積分布関数(CDF)をコーミュラ形式で学習するための新しい生成モデリング手法を提案する。
具体的には、アルキメデスおよび階層的アルキメデスコプラと呼ばれるコプラの特定のクラスを検討し、その同義表現と異なる尾の依存性をモデル化する能力のために人気がある。
我々は、それらの表現を、生成ニューラルネットワークからの潜入ランダム変数のLaplace変換との混合モデルとして考える。
この代替表現は、特に高次元でのサンプリングと計算効率を容易にできる。
さらに、モデルパラメータを最適化する複数の方法を説明します。
最後に,従来の手法と比較して,多次元CDFの学習における提案手法の有効性と計算効率を実証する実験結果を示す。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Proximal Interacting Particle Langevin Algorithms [0.0]
本稿では,潜時変動モデルにおける推論と学習のためのPIPLAアルゴリズムを提案する。
非微分不可能な統計モデルにおけるパラメータ推定の問題に合わせた、新しい近位IPLAファミリー内のいくつかの変種を提案する。
我々の理論と実験は、PIPLAファミリーが非微分可能モデルの潜在変数モデルにおけるパラメータ推定問題のデファクト選択であることを示している。
論文 参考訳(メタデータ) (2024-06-20T13:16:41Z) - Sample Complexity Characterization for Linear Contextual MDPs [67.79455646673762]
文脈決定プロセス(CMDP)は、遷移カーネルと報酬関数がコンテキスト変数によってインデックス付けされた異なるMDPで時間とともに変化できる強化学習のクラスを記述する。
CMDPは、時間とともに変化する環境で多くの現実世界のアプリケーションをモデル化するための重要なフレームワークとして機能する。
CMDPを2つの線形関数近似モデルで検討する: 文脈変化表現とすべての文脈に対する共通線形重み付きモデルIと、すべての文脈に対する共通表現と文脈変化線形重み付きモデルIIである。
論文 参考訳(メタデータ) (2024-02-05T03:25:04Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Federated Variational Inference Methods for Structured Latent Variable
Models [1.0312968200748118]
フェデレートされた学習方法は、データが元の場所を離れることなく、分散データソースをまたいだモデルトレーニングを可能にする。
本稿では,ベイズ機械学習において広く用いられている構造的変分推論に基づく汎用的でエレガントな解を提案する。
また、標準FedAvgアルゴリズムに類似した通信効率のよい変種も提供する。
論文 参考訳(メタデータ) (2023-02-07T08:35:04Z) - Spectral Diffusion Processes [26.510979162244304]
スコアベース生成モデリング(SGM)は有限次元空間上の密度をモデル化するための非常に効果的な手法であることが証明されている。
我々はスペクトル空間の関数データを表現し、プロセスの一部を時空間部分から解離させる。
論文 参考訳(メタデータ) (2022-09-28T14:23:41Z) - Learning High-Dimensional Distributions with Latent Neural Fokker-Planck
Kernels [67.81799703916563]
低次元潜在空間におけるフォッカー・プランク方程式の解法として問題を定式化する新しい手法を導入する。
提案モデルでは,潜在分散モーフィング,ジェネレータ,パラメータ化Fokker-Planckカーネル関数からなる。
論文 参考訳(メタデータ) (2021-05-10T17:42:01Z) - Deep Extreme Value Copulas for Estimation and Sampling [35.93835819721815]
本稿では,高次元極値分布の分布関数をモデル化する新しい手法を提案する。
極端分布のスペクトル表現を回復する新しい方法を提案し、極端コプラからのサンプリングのための生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-17T22:02:47Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Analysis of Bayesian Inference Algorithms by the Dynamical Functional
Approach [2.8021833233819486]
学生自明なシナリオにおいて,大ガウス潜在変数モデルを用いて近似推論のアルゴリズムを解析する。
完全データモデルマッチングの場合、レプリカ法から派生した静的順序パラメータの知識により、効率的なアルゴリズム更新が得られる。
論文 参考訳(メタデータ) (2020-01-14T17:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。