論文の概要: Stochastic Variational Smoothed Model Checking
- arxiv url: http://arxiv.org/abs/2205.05398v1
- Date: Wed, 11 May 2022 10:43:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 03:15:32.011160
- Title: Stochastic Variational Smoothed Model Checking
- Title(参考訳): 確率的変分平滑化モデルチェック
- Authors: Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini
- Abstract要約: パラメトリックモデルのモデルチェックは、モデルのパラメータの関数として、ある特性の満足度確率をチェックするものとして表現することができる。
本稿では,確率論的機械学習の最近の進歩を利用して,この限界を推し進める。
本稿では, SV-smMCの性能を, 拡張性, 計算効率, 再構成された満足度関数の精度で比較する。
- 参考スコア(独自算出の注目度): 1.5293427903448025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model-checking for parametric stochastic models can be expressed as checking
the satisfaction probability of a certain property as a function of the
parameters of the model. Smoothed model checking (smMC) leverages Gaussian
Processes (GP) to infer the satisfaction function over the entire parameter
space from a limited set of observations obtained via simulation. This approach
provides accurate reconstructions with statistically sound quantification of
the uncertainty. However, it inherits the scalability issues of GP. In this
paper, we exploit recent advances in probabilistic machine learning to push
this limitation forward, making Bayesian inference of smMC scalable to larger
datasets, enabling its application to larger models in terms of the dimension
of the parameter set. We propose Stochastic Variational Smoothed Model Checking
(SV-smMC), a solution that exploits stochastic variational inference (SVI) to
approximate the posterior distribution of the smMC problem. The strength and
flexibility of SVI make SV-smMC applicable to two alternative probabilistic
models: Gaussian Processes (GP) and Bayesian Neural Networks (BNN). Moreover,
SVI makes inference easily parallelizable and it enables GPU acceleration. In
this paper, we compare the performances of smMC against those of SV-smMC by
looking at the scalability, the computational efficiency and at the accuracy of
the reconstructed satisfaction function.
- Abstract(参考訳): パラメトリック確率モデルのモデルチェックは、モデルのパラメータの関数としてある性質の満足度確率をチェックするものとして表現することができる。
smoothed model checking (smmc) はガウス過程(gp)を利用して、シミュレーションによって得られた限られた観測集合からパラメータ空間全体の満足度関数を推定する。
このアプローチは、統計的に不確実性の定量化を伴う正確な再構成を提供する。
しかし、GPのスケーラビリティの問題を継承している。
本稿では、確率論的機械学習の最近の進歩を利用して、この制限を推し進め、ベイジアン推定のsmMCを大規模データセットにスケーラブルにし、パラメータ集合の次元の観点からより大きなモデルに適用できるようにする。
本稿では,SVI(Stochastic Variational Inference)を利用して,smMC問題の後部分布を近似する手法であるStochastic Variational Smoothed Model Checking (SV-smMC)を提案する。
SVIの強度と柔軟性により、SV-smMCはガウス過程(GP)とベイズニューラルネットワーク(BNN)の2つの代替確率モデルに適用できる。
さらに、SVIは推論を簡単に並列化し、GPUアクセラレーションを可能にする。
本稿では, SV-smMCのスケーラビリティ, 計算効率, 再構成された満足度関数の精度について, smMCとSV-smMCの性能を比較した。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Numerically Stable Sparse Gaussian Processes via Minimum Separation
using Cover Trees [57.67528738886731]
誘導点に基づくスケーラブルスパース近似の数値安定性について検討する。
地理空間モデリングなどの低次元タスクに対しては,これらの条件を満たす点を自動計算する手法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:20:17Z) - Information Theoretic Structured Generative Modeling [13.117829542251188]
構造生成モデル (Structured Generative Model, SGM) と呼ばれる新しい生成モデルフレームワークが提案され, 簡単な最適化が可能となった。
この実装では、無限のガウス混合モデルを学習するために適合した単一白色ノイズ源への正則入力によって駆動される1つのニューラルネットワークを採用している。
予備的な結果は、SGMがデータ効率と分散、従来のガウス混合モデルと変分混合モデル、および敵ネットワークのトレーニングにおいてMINE推定を著しく改善することを示している。
論文 参考訳(メタデータ) (2021-10-12T07:44:18Z) - Structured Stochastic Gradient MCMC [20.68905354115655]
近似した後方関数形式を仮定しない新しい非パラメトリック変分近似を提案する。
完全なSGMCMCよりも優れた予測可能性と有効試料サイズが得られる。
論文 参考訳(メタデータ) (2021-07-19T17:18:10Z) - Sinkhorn Natural Gradient for Generative Models [125.89871274202439]
本研究では,シンクホーンの発散による確率空間上の最も急降下法として機能するシンクホーン自然勾配(SiNG)アルゴリズムを提案する。
本稿では,SiNG の主要成分であるシンクホーン情報行列 (SIM) が明示的な表現を持ち,対数的スケールの複雑さを正確に評価できることを示す。
本実験では,SiNGと最先端のSGD型解法を定量的に比較し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-11-09T02:51:17Z) - An adaptive Hessian approximated stochastic gradient MCMC method [12.93317525451798]
後方からのサンプリング中に局所的幾何情報を組み込む適応型ヘッセン近似勾配MCMC法を提案する。
我々は,ネットワークの空間性を高めるために,等級に基づく重み付け法を採用する。
論文 参考訳(メタデータ) (2020-10-03T16:22:15Z) - Improving Sampling Accuracy of Stochastic Gradient MCMC Methods via
Non-uniform Subsampling of Gradients [54.90670513852325]
サンプリング精度を向上させるための一様でないサブサンプリング手法を提案する。
EWSGは、一様勾配MCMC法がバッチ勾配MCMC法の統計的挙動を模倣するように設計されている。
EWSGの実践的な実装では、データインデックス上のMetropolis-Hastingsチェーンを介して、一様でないサブサンプリングを効率的に行う。
論文 参考訳(メタデータ) (2020-02-20T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。