論文の概要: Adaptive generative moment matching networks for improved learning of dependence structures
- arxiv url: http://arxiv.org/abs/2508.21531v1
- Date: Fri, 29 Aug 2025 11:38:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.023648
- Title: Adaptive generative moment matching networks for improved learning of dependence structures
- Title(参考訳): 従属構造学習のための適応的生成モーメントマッチングネットワーク
- Authors: Marius Hofert, Gan Yao,
- Abstract要約: 生成モーメントマッチングネットワーク(GMMN)を適合させるための適応帯域幅選択手順を導入する。
トレーニング損失の相対誤差に基づいて、トレーニング中にカーネル数が増加する。
GMMNと比較してトレーニング性能は大幅に向上する。
- 参考スコア(独自算出の注目度): 1.9336815376402718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An adaptive bandwidth selection procedure for the mixture kernel in the maximum mean discrepancy (MMD) for fitting generative moment matching networks (GMMNs) is introduced, and its ability to improve the learning of copula random number generators is demonstrated. Based on the relative error of the training loss, the number of kernels is increased during training; additionally, the relative error of the validation loss is used as an early stopping criterion. While training time of such adaptively trained GMMNs (AGMMNs) is similar to that of GMMNs, training performance is increased significantly in comparison to GMMNs, which is assessed and shown based on validation MMD trajectories, samples and validation MMD values. Superiority of AGMMNs over GMMNs, as well as typical parametric copula models, is demonstrated in terms of three applications. First, convergence rates of quasi-random versus pseudo-random samples from high-dimensional copulas are investigated for three functionals of interest and in dimensions as large as 100 for the first time. Second, replicated validation MMDs, as well as Monte Carlo and quasi-Monte Carlo applications based on the expected payoff of a basked call option and the risk measure expected shortfall as functionals are used to demonstrate the improved training of AGMMNs over GMMNs for a copula model fitted to the standardized residuals of the 50 constituents of the S&P 500 index after deGARCHing. Last, both the latter dataset and 50 constituents of the FTSE~100 are used to demonstrate that the improved training of AGMMNs over GMMNs and in comparison to the fitting of classical parametric copula models indeed also translates to an improved model prediction.
- Abstract(参考訳): 生成モーメントマッチングネットワーク(GMMN)に適合する最大平均誤差(MMD)における混合カーネルの適応帯域幅選択手順を導入し、コプラ乱数生成器の学習を改善する能力を示す。
トレーニング損失の相対誤差に基づいて、トレーニング中にカーネル数が増加し、また、検証損失の相対誤差を早期停止基準として使用する。
適応訓練されたGMMN(AGMMNs)のトレーニング時間はGMMNsと似ているが,MDDトラジェクトリ,サンプル,MDD値に基づいて評価・表示されるGMMNsと比較して,トレーニング性能は有意に向上する。
GMMNに対するAGMMNの超越性、および典型的なパラメトリックコプラモデルは、3つの応用の観点から示される。
まず, 擬似ランダムと高次元コプラの擬似ランダムの収束速度を, 興味のある3つの機能と, 初めて100までの大きさで検討した。
第2に、複製された検証MDD、モンテカルロ、準モンテカルロの3つの応用は、バスクコールオプションの有望な支払いと、機能として期待されるショートフォールに基づいて、デGARCHing後のS&P500指数の50成分の標準化された残基に適合したコプラモデルに対して、GMMNよりもAGMMNのトレーニングの改善を実証するために使用される。
最後に、FTSE〜100の後者のデータセットと50の構成要素を用いて、GMMNによるAGMMNのトレーニングの改善と、古典的パラメトリックコプラモデルの適用との比較により、モデル予測の改善が実際に実現されていることを示す。
関連論文リスト
- MCDFN: Supply Chain Demand Forecasting via an Explainable Multi-Channel Data Fusion Network Model [0.0]
CNN,Long Short-Term Memory Network (LSTM), Gated Recurrent Units (GRU)を統合したハイブリッドアーキテクチャであるMulti-Channel Data Fusion Network (MCDFN)を紹介する。
我々の比較ベンチマークは、MCDFNが他の7つのディープラーニングモデルより優れていることを示している。
本研究は,需要予測手法を進歩させ,MCDFNをサプライチェーンシステムに統合するための実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-05-24T14:30:00Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Uncertainty Quantification using Generative Approach [4.4858968464373845]
本稿では,深いニューラルネットワークにおける不確実性を測定するためのインクリメンタル生成モンテカルロ法を提案する。
IGMCは生成モデルを反復的に訓練し、その出力をデータセットに追加し、ランダム変数の期待の後方分布を計算する。
MNIST桁分類タスクにおけるIGMCの挙動を実証的に研究する。
論文 参考訳(メタデータ) (2023-10-13T18:05:25Z) - What Are Bayesian Neural Network Posteriors Really Like? [63.950151520585024]
ハミルトニアンモンテカルロは、標準およびディープアンサンブルよりも大きな性能向上を達成できることを示す。
また,深部分布は標準SGLDとHMCに類似しており,標準変動推論に近いことが示された。
論文 参考訳(メタデータ) (2021-04-29T15:38:46Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - On Minimum Word Error Rate Training of the Hybrid Autoregressive
Transducer [40.63693071222628]
ハイブリッド自己回帰変換器(HAT)の最小単語誤り率(MWER)訓練について検討する。
約3万時間のトレーニングデータを用いた実験から,MWERトレーニングがHATモデルの精度を向上させることを示す。
論文 参考訳(メタデータ) (2020-10-23T21:16:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。