論文の概要: E-QRGMM: Efficient Generative Metamodeling for Covariate-Dependent Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2601.19256v1
- Date: Tue, 27 Jan 2026 06:39:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.206336
- Title: E-QRGMM: Efficient Generative Metamodeling for Covariate-Dependent Uncertainty Quantification
- Title(参考訳): E-QRGMM:共変量依存不確実性定量のための効率的な生成メタモデリング
- Authors: Zhiyang Liang, Qingkai Zhang,
- Abstract要約: E-QRGMM(Efficient Quantile-Regression-Based Generative Metamodeling)は、QRGMM(Quantile-Regression-based Generative Metamodeling)を加速する新しいフレームワークである。
E-QRGMMは元のQRGMMの収束率を保ちながら、グリッドの複雑さを$O(n1/2)$から$O(n1/5)$に減らしていることを示す。
E-QRGMMはQRGMMと他の高度な深層生成法と比較して分布精度と訓練速度のトレードオフが優れている
- 参考スコア(独自算出の注目度): 0.5371337604556311
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Covariate-dependent uncertainty quantification in simulation-based inference is crucial for high-stakes decision-making but remains challenging due to the limitations of existing methods such as conformal prediction and classical bootstrap, which struggle with covariate-specific conditioning. We propose Efficient Quantile-Regression-Based Generative Metamodeling (E-QRGMM), a novel framework that accelerates the quantile-regression-based generative metamodeling (QRGMM) approach by integrating cubic Hermite interpolation with gradient estimation. Theoretically, we show that E-QRGMM preserves the convergence rate of the original QRGMM while reducing grid complexity from $O(n^{1/2})$ to $O(n^{1/5})$ for the majority of quantile levels, thereby substantially improving computational efficiency. Empirically, E-QRGMM achieves a superior trade-off between distributional accuracy and training speed compared to both QRGMM and other advanced deep generative models on synthetic and practical datasets. Moreover, by enabling bootstrap-based construction of confidence intervals for arbitrary estimands of interest, E-QRGMM provides a practical solution for covariate-dependent uncertainty quantification.
- Abstract(参考訳): シミュレーションに基づく推論における共変量依存の不確かさの定量化は、高精度な意思決定には不可欠であるが、共変量固有の条件に苦しむ共変量予測や古典的なブートストラップといった既存の手法の限界により、依然として困難である。
本稿では, 量子回帰に基づく生成メタモデリング(QRGMM)を高速化する新しいフレームワークであるE-QRGMMを提案する。
理論的には、E-QRGMMは元のQRGMMの収束率を維持しつつ、グリッドの複雑さを$O(n^{1/2})$から$O(n^{1/5})$に減らし、計算効率を大幅に向上させる。
経験的に、E-QRGMMは、QRGMMと、合成および実用的なデータセット上の他の高度な深層生成モデルと比較して、分布精度とトレーニング速度のトレードオフが優れている。
さらに、任意の利害推定のためのブートストラップに基づく信頼区間の構築を可能にすることにより、E-QRGMMは共変量依存の不確実性定量化のための実用的なソリューションを提供する。
関連論文リスト
- Quantum solver for single-impurity Anderson models with particle-hole symmetry [1.4222334190789556]
DMFTにおける中心的な計算ボトルネックは、アンダーソン不純物モデル(AIM)の解法である。
我々は、DMFTアプリケーションに適した量子古典的ハイブリッド・ソルバを開発し、ベンチマークする。
雑音, ショット制限条件下での浴槽サイズ, 相互作用強度について検討した。
論文 参考訳(メタデータ) (2026-01-15T17:02:34Z) - Model-Based Reinforcement Learning in Discrete-Action Non-Markovian Reward Decision Processes [46.91576262410701]
本稿では,非マルコフ的報酬処理から報酬機によるマルコフ遷移学習を分解する離散NMRDPのための新しいモデルベースアルゴリズムを提案する。
本手法を,複雑性が増大する環境における最新のモデルベースRL手法と実験的に比較した。
論文 参考訳(メタデータ) (2025-12-16T17:26:24Z) - Robust Iterative Learning Hidden Quantum Markov Models [0.7493761475572844]
隠れ量子マルコフモデル(HQMM)は古典的な隠れマルコフモデルを量子領域に拡張する。
既存のHQMM学習アルゴリズムは、データ破損に敏感であり、敵の摂動下で堅牢性を確保するメカニズムが欠如している。
本稿では,制御された観測系列を逆向きに破損させることにより,ロバスト性解析を形式化するHQMMを提案する。
論文 参考訳(メタデータ) (2025-10-27T11:48:44Z) - Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - WSM: Decay-Free Learning Rate Schedule via Checkpoint Merging for LLM Pre-training [64.0932926819307]
本稿では,学習速度減衰とモデルマージの正式な関係を確立するフレームワークであるWarmup-Stable and Merge(WSM)を紹介する。
WSMは様々な崩壊戦略をエミュレートするための統一された理論基盤を提供する。
私たちのフレームワークは、複数のベンチマークで広く採用されているWarmup-Stable-Decay(WSD)アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-07-23T16:02:06Z) - Simulation-Based Inference with Quantile Regression [0.0]
条件付き量子化回帰に基づく新しいシミュレーションベース推論(SBI)手法であるニューラル量子化推定(NQE)を提案する。
NQEは、各後次元の個々の1次元量子を自己回帰的に学習し、データとそれ以前の後次元に条件付けする。
我々はNQEが様々なベンチマーク問題に対して最先端の性能を達成することを実証する。
論文 参考訳(メタデータ) (2024-01-04T18:53:50Z) - Information Theoretic Structured Generative Modeling [13.117829542251188]
構造生成モデル (Structured Generative Model, SGM) と呼ばれる新しい生成モデルフレームワークが提案され, 簡単な最適化が可能となった。
この実装では、無限のガウス混合モデルを学習するために適合した単一白色ノイズ源への正則入力によって駆動される1つのニューラルネットワークを採用している。
予備的な結果は、SGMがデータ効率と分散、従来のガウス混合モデルと変分混合モデル、および敵ネットワークのトレーニングにおいてMINE推定を著しく改善することを示している。
論文 参考訳(メタデータ) (2021-10-12T07:44:18Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Q-GADMM: Quantized Group ADMM for Communication Efficient Decentralized Machine Learning [66.18202188565922]
我々はQGADMM(QGADMM)という通信効率の高い分散機械学習(ML)アルゴリズムを提案する。
我々は,凸関数に対するQGADMMの収束性を証明しつつ,モデル化レベルとその確率を適応的に調整する新しい量子化法を開発した。
論文 参考訳(メタデータ) (2019-10-23T10:47:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。