論文の概要、ライセンス

# (参考訳) 確率的変分平滑化モデルチェック [全文訳有]

Stochastic Variational Smoothed Model Checking ( http://arxiv.org/abs/2205.05398v1 )

ライセンス: CC BY 4.0
Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini(参考訳) パラメトリック確率モデルのモデルチェックは、モデルのパラメータの関数としてある性質の満足度確率をチェックするものとして表現することができる。 smoothed model checking (smmc) はガウス過程(gp)を利用して、シミュレーションによって得られた限られた観測集合からパラメータ空間全体の満足度関数を推定する。 このアプローチは、統計的に不確実性の定量化を伴う正確な再構成を提供する。 しかし、GPのスケーラビリティの問題を継承している。 本稿では、確率論的機械学習の最近の進歩を利用して、この制限を推し進め、ベイジアン推定のsmMCを大規模データセットにスケーラブルにし、パラメータ集合の次元の観点からより大きなモデルに適用できるようにする。 本稿では,SVI(Stochastic Variational Inference)を利用して,smMC問題の後部分布を近似する手法であるStochastic Variational Smoothed Model Checking (SV-smMC)を提案する。 SVIの強度と柔軟性により、SV-smMCはガウス過程(GP)とベイズニューラルネットワーク(BNN)の2つの代替確率モデルに適用できる。 さらに、SVIは推論を簡単に並列化し、GPUアクセラレーションを可能にする。 本稿では, SV-smMCのスケーラビリティ, 計算効率, 再構成された満足度関数の精度について, smMCとSV-smMCの性能を比較した。

Model-checking for parametric stochastic models can be expressed as checking the satisfaction probability of a certain property as a function of the parameters of the model. Smoothed model checking (smMC) leverages Gaussian Processes (GP) to infer the satisfaction function over the entire parameter space from a limited set of observations obtained via simulation. This approach provides accurate reconstructions with statistically sound quantification of the uncertainty. However, it inherits the scalability issues of GP. In this paper, we exploit recent advances in probabilistic machine learning to push this limitation forward, making Bayesian inference of smMC scalable to larger datasets, enabling its application to larger models in terms of the dimension of the parameter set. We propose Stochastic Variational Smoothed Model Checking (SV-smMC), a solution that exploits stochastic variational inference (SVI) to approximate the posterior distribution of the smMC problem. The strength and flexibility of SVI make SV-smMC applicable to two alternative probabilistic models: Gaussian Processes (GP) and Bayesian Neural Networks (BNN). Moreover, SVI makes inference easily parallelizable and it enables GPU acceleration. In this paper, we compare the performances of smMC against those of SV-smMC by looking at the scalability, the computational efficiency and at the accuracy of the reconstructed satisfaction function.
公開日: Wed, 11 May 2022 10:43:23 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] G L . s c [ ] G L。 sc [ 0.47
1 v 8 9 3 5 0 1 v 8 9 3 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Stochastic Variational Smoothed Model Checking 確率的変動 平滑化モデルチェック 0.70
Luca Bortolussi1, Francesca Cairoli1, Ginevra Carbone1, and Paolo Pulcini1 Luca Bortolussi1, Francesca Cairoli1, Ginevra Carbone1, Paolo Pulcini1 0.47
DMG, University of Trieste, Italy イタリア・トリエステ大学 dmg 0.49
Abstract. Model-checking for parametric stochastic models can be expressed as checking the satisfaction probability of a certain property as a function of the parameters of the model. 抽象。 パラメトリック確率モデルのモデルチェックは、モデルのパラメータの関数としてある性質の満足度確率をチェックするものとして表現することができる。 0.59
Smoothed model checking (smMC) [4] leverages Gaussian Processes (GP) to infer the satisfaction function over the entire parameter space from a limited set of observations obtained via simulation. smoothed model checking (smmc) [4] はガウス過程 (gp) を利用して、シミュレーションによって得られた限られた観測集合からパラメータ空間全体の満足度関数を推定する。 0.84
This approach provides accurate reconstructions with statistically sound quantification of the uncertainty. このアプローチは、統計的に不確実性の定量化を伴う正確な再構成を提供する。 0.53
However, it inherits the scalability issues of GP. しかし、GPのスケーラビリティの問題を継承している。 0.59
In this paper, we exploit recent advances in probabilistic machine learning to push this limitation forward, making Bayesian inference of smMC scalable to larger datasets, enabling its application to larger models in terms of the dimension of the parameter set. 本稿では、確率論的機械学習の最近の進歩を利用して、この制限を推し進め、ベイジアン推定のsmMCを大規模データセットにスケーラブルにし、パラメータ集合の次元の観点からより大きなモデルに適用できるようにする。 0.77
We propose Stochastic Variational Smoothed Model Checking (SV-smMC), a solution that exploits stochastic variational inference (SVI) to approximate the posterior distribution of the smMC problem. 本稿では,SVI(Stochastic Variational Inference)を利用して,smMC問題の後部分布を近似する手法であるStochastic Variational Smoothed Model Checking (SV-smMC)を提案する。 0.80
The strength and flexibility of SVI make SV-smMC applicable to two alternative probabilistic models: Gaussian Processes (GP) and Bayesian Neural Networks (BNN). SVIの強度と柔軟性により、SV-smMCはガウス過程(GP)とベイズニューラルネットワーク(BNN)の2つの代替確率モデルに適用できる。 0.77
Moreover, SVI makes inference easily parallelizable and it enables GPU acceleration. さらに、SVIは推論を簡単に並列化し、GPUアクセラレーションを可能にする。 0.63
In this paper, we compare the performances of smMC [4] against those of SV-smMC by looking at the scalability, the computational efficiency and at the accuracy of the reconstructed satisfaction function. 本稿では,SmMC[4]の性能とSV-smMCの性能を,拡張性,計算効率,再構成された満足度関数の精度で比較する。 0.75
1 Introduction Parametric verification of logical properties aims at providing meaningful insights into the behaviour of a system, checking whether its evolution satisfies or not a certain requirement, expressed as a temporal logic formula, varying some parameters of the system’s model. 1 はじめに 論理特性のパラメトリック検証(parametric verification of logical properties)は、システムの振る舞いに関する有意義な洞察を提供することを目標とし、その進化が特定の要求を満たすかどうかをチェックする。 0.56
Stochastic systems, however, require the use of probabilistic model checking techniques as the satisfaction of a property is itself a stochastic quantity. しかし確率系は、性質の満足度自体が確率量であるので確率的モデル検査技術を使う必要がある。 0.70
In this direction, statistical model checking (SMC) uses statistical tools to estimate the satisfaction probability of logical properties from trajectories sampled from the stochastic model and it enriches these estimates with probabilistic bounds of the estimation errors. この方向において、統計モデル検査(SMC)は統計ツールを用いて確率モデルからサンプリングされた軌道から論理特性の満足度確率を推定し、これらの推定値を推定誤差の確率的境界で拡張する。 0.82
For instance, if the number of sampled trajectories is sufficiently large, the satisfaction probability, estimated as the average of satisfaction on individual runs, will converge to the true probability. 例えば、サンプル軌跡の数が十分に大きい場合、個々の走行における満足度の平均として推定される満足度確率は、真の確率に収束する。 0.83
However, if the parameters of the stochastic model vary, the dynamics of the system will also vary. しかし、確率モデルのパラメータが変化すると、システムのダイナミクスも変化する。 0.58
Therefore, SMC has to be performed from したがって、SMCは実行されなければならない。 0.59
英語(論文から抽出)日本語訳スコア
2 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 2 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
scratch for each set of parameter values, making SMC computationally unfeasible for parametric stochastic models. パラメータの集合のスクラッチは、SMC計算がパラメトリック確率モデルでは不可能である。 0.76
In this regard, the satisfaction probability of a signal temporal logic (STL) requirement over a parametric stochastic model has been proved to be a smooth function of the parameters of the model [4]. この点において、パラメトリック確率モデルに対する信号時間論理(STL)要求の満足度確率は、モデルのパラメーターの滑らかな関数であることが証明された[4]。 0.83
This result enables the use of machine learning techniques to infer an approximation of this function from a limited pool of observations. これにより、限られた観測プールからこの関数の近似を推論する機械学習技術が利用可能となる。 0.79
Observations, computed via SMC for a limited number of parameter values, are noisy and computationally demanding to obtain. パラメータ値の限られた数に対してSMCで計算された観測は、ノイズが多く、計算が要求される。 0.68
This calls for Bayesian approaches, where predictions provide a probabilistic quantification of the predictive uncertainty. これはベイズ的アプローチを呼び起こし、予測が予測の不確実性の確率論的定量化を与える。 0.66
In this regard, in [4] the authors present smoothed model checking (smMC), a fully Bayesian solution based on Gaussian Processes (GP). この点に関して,[4]では,ガウス過程(gp)に基づく完全ベイズ解である smoothed model checking (smmc) を提案する。 0.75
Since the observation process is non-Gaussian, outputs are in fact realizations of a Bernoulli distribution, exact GP inference is unfeasible. 観測過程は非ガウス的であるため、出力はベルヌーイ分布の実際の実現であり、正確なGP推論は不可能である。 0.68
The authors thus resort to the Expectation Propagation (EP) algorithm to approximate the posterior inference. したがって、著者らは後方推定を近似するために期待伝播(ep)アルゴリズムを用いる。 0.69
Unfortunately, the cost of EP is cubic in the number of observations used to train the GP, making smMC applicable only to models with a low dimensional parameter space that require a limited number of training observations. 残念なことに、EPのコストはGPのトレーニングに使用される観測回数の3分の1であり、smMCは限られた数の訓練観察を必要とする低次元パラメータ空間を持つモデルにのみ適用できる。 0.73
In [15] this scalability problem is tackled by using a sparse variational approach to GP inference. 15]では、GP推論に対するスパース変分アプローチを用いて、この拡張性の問題に取り組む。 0.67
Sparsification reduces the computational complexity, by performing inference on a limited set of observations, called inducing points. スパーシフィケーションは、誘導点と呼ばれる限られた観測セットで推論を行うことで、計算の複雑さを減少させる。
訳抜け防止モード: スパーシフィケーションは計算複雑性を減らします 誘導点という,観測の限られたセットで推論を行うこと。
0.70
On the other hand, variational inference is used to perform approximate inference of a GP classification (GPC) problem. 一方、変分推論はgp分類(gpc)問題の近似推論を行うために用いられる。 0.58
The variational approach for GPC used in [15] builds on [18], in which the objective function used for optimization does not depend explicitly on the inducing variables, forcing them to be fixed a priori. 15]で使用されるGPCの変分的アプローチは[18]に基づいており、最適化に使用される目的関数は変数の誘導に明示的に依存せず、事前に固定せざるを得ない。 0.84
Scalability is thus improved, but sparsification strongly reduces the reconstruction accuracy. これによりスケーラビリティが向上するが、スパーシフィケーションによって再構築の精度が大幅に低下する。 0.52
Moreover, in [15] the smMC problem is framed as a GPC problem, meaning that observations come from the satisfaction of a single trajectory. さらに, [15]では, smMC問題はGPC問題であり, 単一の軌道の満足度から観測される。 0.70
If for a certain parameter we simulate M trajectories, this would result in M different observations. あるパラメータに対して M 軌道をシミュレートすると、これは M の異なる観測をもたらす。 0.80
On the contrary, in [4] the observation process was modeled by a Binomial so that the satisfaction of the M simulations is condensed into a single observation. 一方,[4]では,Mシミュレーションの満足度を1つの観測値に縮合するように,観測過程を二項式でモデル化した。 0.81
This has a strong effect on the dimension of the training set which is of paramount importance for sake of scalability. これはスケーラビリティのために最も重要なトレーニングセットの次元に強い影響を与えます。 0.54
Finding an effective solution that makes smMC scale to large datasets remains an open issue. 大規模なデータセットにsmMCをスケールさせる効果的なソリューションを見つけることは、未解決の問題である。
訳抜け防止モード: smMCを大規模データセットにスケールする効果的なソリューションを見つける 未解決の問題です
0.79
In this paper, we propose a novel approach for scalable smMC, called Stochastic Variational Smoothed Model Checking (SVsmMC) that leverages Stochastic Variational Inference (SVI), a popular solution for making Bayesian inference scalable to large datasets. 本稿では,ベイズ推論を大規模データセットに拡張可能なものにするための一般的なソリューションである確率的変分推論(svi)を活用する,svsmmcと呼ばれるスケーラブルなsmmcのための新しい手法を提案する。
訳抜け防止モード: 本稿では,スケーラブルsmMCの新しいアプローチを提案する。 SVsmMC (Stochastic Variational Smoothed Model Checking) と呼ばれるもので Stochastic Variational Inference (SVI)は、ベイジアン推論を大規模データセットにスケーラブルにする一般的なソリューションである。
0.86
SVI is extremely flexible, the general idea can be applied either to Gaussian Processes but also to Bayesian Neural Networks. SVIは非常に柔軟であり、一般的なアイデアはガウス過程にもベイズニューラルネットワークにも適用できる。 0.65
The main advantage of SVI, compared to the VI used for example in [15], is that the gradient-based optimization can be stochastically approximated using mini-batches of data, resulting in the well-known stochastic gradient descent (SGD) algorithms. SVIの主な利点は、例えば[15]で使用されるVIと比較して、勾配に基づく最適化はデータのミニバッチを用いて確率的に近似できるので、よく知られた確率勾配勾配(SGD)アルゴリズムをもたらすことである。 0.74
The use of mini-batches makes inference easily parallelizable, enabling also GPU acceleration. ミニバッチを使用することで推論の並列化が容易になり、GPUアクセラレーションも可能になる。 0.54
As a result, Bayesian inference can face even very large datasets. その結果、ベイズ推定はさらに大きなデータセットに直面することができる。 0.68
This paper is structured as follows. 本論文は次のように構成されている。 0.50
We start by presenting the background theory in Section 2. 第2節で背景理論を提示することから始める。 0.75
In Section 3 the theoretical details of SV-smMC are presented 第3節ではSV-smMCの理論の詳細が述べられている。 0.49
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
3 both for the GP version (Section 3.1) and for the BNN version (Section 3.2). 3 GPバージョン(Section 3.1)とBNNバージョン(Section 3.2)の両方。 0.60
Finally, in Section 4 we compare the performances of SV-smMC against those of smMC on three stochastic models with increasing parametric complexity. 最後に, SV-smMC と SV-smMC のパフォーマンスを3つの確率モデルで比較し, パラメトリック複雑性を増大させた。 0.72
2 Background 2.1 Population Continuous Time Markov Chain 背景 2.1連続時間マルコフ連鎖 0.48
A population model of interacting agents can be modeled as a stochastic system evolving continuously in time over a finite or countable state space X . 相互作用するエージェントの集団モデルは、有限あるいは可算状態空間 x 上で連続的に進化する確率的システムとしてモデル化することができる。 0.76
If the system is Markovian, meaning if the memory-less property holds, the population model can be modeled as a population Continuous Time Markov Chain (CTMC) M. Given a population with n different species {S1, . . . , Sn} and m possible reactions {R1, . . . , Rm}, the respective CTMC can be described by: – a state vector, X(t) = (X1(t), . . . , Xn(t)), taking values in X ⊆ Nn and もし、系がマルコフ的であり、つまりメモリのない性質を持つならば、人口モデルは、人口連続時間マルコフ連鎖 (ctmc) m としてモデル化することができる。 n つの異なる種 {s1, . . . . . . . . . rm} と m の可能な反応 {r1, . . . . , rm} を持つ集団が与えられたとき、それぞれのctmcは、次のように記述できる: - 状態ベクトル x(t) = (x1(t), . . , xn(t))) であり、x と nn の値を取る。 0.65
counting the number of agents in each species at time t; 時間tにおける各種内のエージェントの数を数えます。 0.66
– a finite set of reactions R = (R1, . . . , Rm) describing how the state of the population changes in time, i.e., the system dynamics. r = (r1, . . . . . rm) 反応の有限集合で、人口状態が時間的にどのように変化するかを記述する。
訳抜け防止モード: R = (R1, ...) の有限集合。 Rm) どのように表現するか 人口の状態は 時間とともに変化します つまり システムのダイナミクスです
0.72
A general reaction Ri is identified by the tuple (τi, νi), where: - τi : S × Θi → R≥0 is the rate function of reaction Ri that associates to each reaction the rate of an exponential distribution, depending on the global state of the model and on a parameter θi, and 一般反応 Ri は、次のタプル (τi, νi) によって同定される: - τi : S × シュイ → R≥0 は、モデルのグローバル状態とパラメータ θi に依存する指数分布の速度を各反応に関連付ける反応 Ri の速度関数である。 0.84
- νi is the update vector, giving the net change of agents due to the reaction, so that the firing of reaction Ri results in a transition of the system from state X(t) to state X(t) + νi. νi は更新ベクトルであり、反応によるエージェントの純変化を与えるので、反応 Ri の燃焼は系を状態 X(t) から状態 X(t) + νi へ遷移させる。 0.67
Reaction rules are easily visualised in the chemical reaction style, as 反応規則は化学反応様式で容易に可視化される。 0.86
(cid:88) Ri : (cid:88) 理 0.25
αijSj j∈{1,...,n} αijSj j∂{1, ...,n} 0.38
τi(X,θi)−→ (cid:88) τi(X,θi)−→ (cid:88) 0.40
βijSj. j∈{1,...,n} βijSj。 j∂{1, ...,n} 0.58
The stoichiometric coefficients αi = [αi1, . . . , αin], βi = [βi1, . . . , βin] can be arranged so that they form the update vector νi = βi − αi for reaction Ri. 確率係数 αi = [αi1, . . . . . αin], βi = [βi1, . . . . βin] は、反応 Ri に対する更新ベクトル νi = βi − αi を形成するように配置できる。 0.83
The parameters θ = (θ1, . . . , θm) have a crucial effect on the dynamics of the system: changes in θ can lead to qualitatively different dynamics. パラメータ θ = (θ1, . . . . . . , θm) は系の力学に大きな影響を与える。
訳抜け防止モード: パラメータ θ = (θ1, . . . . . . , θm ) は系のダイナミクスに重大な影響を与える。 θ の変化は定性的に異なるダイナミクスをもたらす。
0.84
We stress such crucial dependency by using the notation Mθ. このような重要な依存関係を記法 mθ を用いて強調する。 0.55
The trajectories of such a CTMC can be seen as samples of random variables X(t) indexed by time t over a state space X . そのようなCTMCの軌跡は、状態空間 X 上の時間 t でインデックスされたランダム変数 X(t) のサンプルと見なすことができる。 0.84
A parametric CTMC (pCTMC) is a family Mθ of CTMCs where the parameters vary in a domain Θ. パラメトリックCTMC(パラメトリックCTMC、英: Parametric CTMC)は、CTMCのファミリーMθである。 0.71
2.2 Signal Temporal Logic 2.2 信号時間論理 0.76
Properties of CTMC trajectories are expressed via Signal Temporal Logic (STL) [12]. CTMCトラジェクトリの特性はSignal Temporal Logic (STL) [12]を介して表現される。 0.81
STL allows the specification of properties of dense-time, real-valued signals, and STLは、高密度時間、実値信号の特性の指定を可能にし、 0.67
英語(論文から抽出)日本語訳スコア
4 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 4 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
the automatic generation of monitors for testing properties on individual trajectories. 個々の軌道上の特性をテストするためのモニタの自動生成。 0.78
The rationale of STL is to transform real-valued signals into Boolean ones, using formulae build on the following STL syntax : ϕ := true | µ | ¬ϕ | ϕ ∧ ϕ | ϕ UI ϕ, STLの理論的根拠は、以下のSTL構文に基づく公式構築を用いて、実数値信号からブール信号へ変換することである。
訳抜け防止モード: STLの理論的根拠は、実値の信号をブール信号に変換することである。 以下のSTL構文に基づく公式ビルドを使用する: φ : = true | μ | φ | φ シュ φ | φ UI φ,
0.82
(1) where I ⊆ T is a temporal interval, either bounded, I = [a, b], or unbounded, I = [a, +∞), for any 0 ≤ a < b. Atomic propositions µ are (non-linear) inequalities on population variables. From this essential syntax it is easy to define other operators, used to abbreviate the syntax in a STL formula: f alse := ¬true, ϕ ∨ ψ := ¬(¬ϕ ∧ ¬ψ), FI := true UI ϕ and GI := ¬FI¬ϕ. Monitoring the satisfaction of a formula is done recursively leveraging the tree structure of the STL formula. See [12] for the details on the STL Boolean semantics and on Boolean STL monitors. (1) where I ⊆ T is a temporal interval, either bounded, I = [a, b], or unbounded, I = [a, +∞), for any 0 ≤ a < b. Atomic propositions µ are (non-linear) inequalities on population variables. From this essential syntax it is easy to define other operators, used to abbreviate the syntax in a STL formula: f alse := ¬true, ϕ ∨ ψ := ¬(¬ϕ ∧ ¬ψ), FI := true UI ϕ and GI := ¬FI¬ϕ. Monitoring the satisfaction of a formula is done recursively leveraging the tree structure of the STL formula. See [12] for the details on the STL Boolean semantics and on Boolean STL monitors.
訳抜け防止モード: ( 1 ) ここで i は t は時間間隔である。 有界、i = [ a, b ], 非有界の場合、i = [ a, + ∞ ) 任意の 0 ≤ a < b に対して、原子命題 μ は人口変数 上の(非-線型)不等式である。 この本質的な構文から、他の演算子を簡単に定義できます。 stl式における構文を略すのに使用される : f alse : = \true である。 φ ~ ψ : = ; ( φ ) ; fi : = 真の ui φ である。 公式の満足度をモニタリングする stl公式のツリー構造を再帰的に活用する。 stl boolean の意味論の詳細は 12 を参照してください。 そして、boolean stlモニター。
0.83
2.3 Smoothed Model Checking 2.3 平滑化モデルチェック 0.67
Smoothed Model Checking (smMC), presented in [4], uses Gaussian processes to infer the satisfaction function of pCTMC from a set of observations obtained via statistical model checking. 4] で示される smoothed model checking (smmc) は、統計モデルチェックによって得られた一連の観測から pctmc の満足度関数を推測するためにガウス過程を用いる。 0.87
Statistical Model Checking (SMC). 統計モデル検査(SMC)。 0.71
Given a CTMC Mθ with fixed parameters θ, time-bounded CTMC trajectories are sampled by standard simulation algorithms, like SSA [8], and monitoring algorithms for STL [12] are used to assess if the formula ϕ is satisfied for each sampled trajectory. パラメータ θ の固定された CTMC Mθ が与えられると、SSA[8] のような標準シミュレーションアルゴリズムで時間境界の CTMC 軌道をサンプリングし、STL[12] の監視アルゴリズムを用いて、各サンプリングされた軌道に対して公式 φ が満たされているかどうかを評価する。 0.70
This process produces samples from a Bernoulli random variable equal to 1 if and only if ϕ is true. この過程はベルヌーイ確率変数から標本が 1 に等しいことと、φ が真である場合に限る。
訳抜け防止モード: この過程はベルヌーイ確率変数から 1 if に等しいサンプルを生成する。 φ が真であるときのみ。
0.78
SMC [20,21] then uses standard statistical tools, either frequentist [20] or Bayesian [21], to estimate from these samples the satisfaction probability P r(ϕ|Mθ) or to test if P r(ϕ|Mθ) > q with a given confidence level. SMC[20,21] は、これらのサンプルから満足度確率 P r(φ|Mθ) を推定するために、または与えられた信頼度レベルを持つ P r(φ|Mθ) > q を検定するために、標準統計ツールを使用する。 0.78
Satisfaction Function for pCTMCs. pCTMCの満足度関数 0.67
Building on [4], our interest is to quantify how the satisfaction of STL formulae depends on the unknown parameters of the pCTMC. 4]に基づいて、STL式がpCTMCの未知のパラメータにどのように依存するかを定量化することに興味がある。 0.66
We define the satisfaction function fϕ : Θ → [0, 1] associated to ϕ as φ に付随する満足度関数 fφ : > → [0, 1] を定義する。 0.85
fϕ(θ) = P r(ϕ = true|Mθ). fφ(θ) = p r(θ = true|mθ) である。 0.77
(2) In order to have an accurate estimation, the satisfaction function fϕ over the entire parameter space Θ by means of SMC would require a prohibitively large number of evaluations. (2) 正確な推定を行うためには、パラメータ空間 θ 全体に対するsmc による満足度関数 fφ は、非常に多くの評価を必要とする。 0.59
In [4], Theorem 1, it has been shown that fϕ(θ) is a smooth function of the model parameters and thus machine learning techniques can be used to infer this function from a limited set of observations. 4], Theorem 1では, fφ(θ) がモデルパラメータの滑らかな関数であることが示され, 限られた観測値からこの関数を推論するために機械学習技術が用いられるようになった。 0.88
Problem statement. Given a pCTMC Mθ and an STL formula ϕ, the goal of smMC is to find a statistical estimate of the satisfaction function of (2) from a set of noisy observations of fϕ obtained at few parameter values θ1, θ2, . . . . 問題明細書。 pctmc mθ と stl 公式 φ が与えられたとき、smmc の目標は、いくつかのパラメータ値 θ1, θ2, . . . で得られる fφ の雑音観測集合から (2) の満足度関数を統計的に推定することである。 0.54
The task is then to construct a statistical model that, for any value θ∗ ∈ Θ, computes efficiently an estimate of fϕ(θ∗) together with a credible interval for such a そのタスクは、任意の値 θ∗ ∈ θ に対して、その a に対する信頼できる間隔と共に fφ(θ∗) の推定を効率的に計算する統計モデルを構築することである。 0.75
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
5 prediction. More precisely, given an input point θ, our observations are obtained by evaluating a property ϕ on a single trajectory sampled from the stochastic model Mθ via SSA. 5 予測だ より正確には、入力点 θ が与えられると、ssa を介して確率モデル mθ からサンプリングされた単一の軌道上の特性 φ を評価することにより、観測が得られる。
訳抜け防止モード: 5 予測だ より正確には、入力点 θ が与えられる。 我々の観察は ssa を介して確率モデル mθ からサンプリングされた単一の軌道上の特性 φ の評価。
0.62
Thus, given a set of Nt parameter values, Θt = {θ1, . . . , θNt}, we simulate, for each parameter θi, Mt trajectories, obtaining Mt Boolean values i ∈ {0, 1} for j = 1, . . . , Mt. We condense these Boolean values in a vector (cid:96)j Li = [(cid:96)1 ] . したがって、 θt = {θ1, . . . . . , θnt} という一連の nt パラメータ値が与えられると、各パラメータ θi, mt 軌道に対して j = 1, . . . に対して mt boolean 値 i ∈ {0, 1} を得るようにシミュレートする(cid:96)j li = [(cid:96)1 ]。 0.73
The noisy observations can be summarized as a training set 雑音の観測はトレーニングセットとして要約できる 0.77
i , . . . , (cid:96)Mt I , . , (cid:96)Mt 0.40
i Dt = {(θi, Li) | i = 1, . . . , Nt} . 私は Dt = {(θi, Li) | i = 1, . , Nt} である。 0.67
(3) SmMC uses GP to solve the above inference problem. (3) smmcはgpを用いて上記の推論問題を解決する。 0.51
Since the observation process is non-Gaussian, exact inference is unfeasible and thus Expectation Propagation is used to approximate the posterior distribution. 観測過程は非ガウス的であるため、正確な推論は不可能であり、期待伝播は後方分布を近似するために用いられる。 0.68
This solution scales as O(N 3 t ), it is thus unfeasible for large datasets. この解は o(n 3 t ) とスケールするので、大規模なデータセットでは実現不可能である。
訳抜け防止モード: この解は O(N 3 t ) としてスケールする。 大規模なデータセットでは不可能です
0.75
Notice that, if the observation process is modeled by a Bernoulli, as in [15], meaning if Boolean values (cid:96)j i are considered as individual observations instead of condensing them in a 観察過程が[15]のようにベルヌーイによってモデル化された場合、ブール値 (cid:96)j i が a に凝縮するのではなく個々の観測と見なされる。 0.79
vector Li, inference scales as O(cid:0)(NtMt)3(cid: 1). ベクトル Li, inference scales as O(cid:0)(NtMt)3(cid: 1)。 0.90
In order to mitigate such scalability このようなスケーラビリティを緩和するために 0.63
issue, in [15] the authors use variational inference together with sparsification techniques to make inference feasible for slightly larger datasets. 問題 著者らは[15]において、ばらつき推論とスパーシフィケーション技法を併用して、わずかに大きなデータセットに対して推論を可能にする。
訳抜け防止モード: issue, in [ 15 ] the author using variational inference with sparsification techniques わずかに大きなデータセットに対して 推論を可能にするためです
0.87
Nonetheless, stochastic variational inference is not applicable and sparsification strongly reduces the reconstruction accuracy, thus scalability remains an open issue. それにもかかわらず、確率的変動推論は適用されず、スパーシフィケーションは再構成の精度を強く低下させるため、スケーラビリティは未解決の問題のままである。 0.49
3 Stochastic Variational Smoothed Model Checking 3 確率的変分平滑化モデルチェック 0.75
The goal of Stochastic Variational Smoothed Model Checking (SV-smMC) is to efficiently infer an accurate probabilistic estimate of the unknown satisfaction function fϕ : Θ → [0, 1]. Stochastic Variational Smoothed Model Checking (SV-smMC) の目標は、未知の満足度関数 fφ の正確な確率的推定を効率的に推測することである。 0.83
In order to do so, we define a function f : Θ → [0, 1] that should behave as similarly as possible to fϕ. そのために f : θ → [0, 1] を f φ にできる限り同じように振る舞う関数 f : θ → [0, 1] を定義する。 0.78
The main ingredients of a Bayesian approach to the problem stated above are the following: 上記の問題に対するベイズ的アプローチの主成分は以下のとおりである。 0.78
1. Choose a prior distribution, p(f ), over a suitable function space encapsulat- 1. 適切な関数空間をカプセル化する前置分布 p(f ) を選択する- 0.87
ing the beliefs about function f prior to any observations being taken. 観測される前に関数 f についての信念を記入する。 0.77
2. Determine the functional form of the observation process by defining a suitable likelihood function that effectively models how the observations depend on the uncertain parameter θ. 2) 不確実パラメータ θ に依存する観測方法を効果的にモデル化する適切な確率関数を定義することにより,観測プロセスの機能形式を決定する。 0.81
Our observation process can be modeled by a binomial over Mt trials with parameter fϕ(θ). 観測過程は,パラメータfφ(θ)を用いた二項法でモデル化できる。 0.68
Given the nature of our training set, defined in (3), we define the probabilistic likelihood as トレーニングセットの性質を (3) で定義すると、確率的可能性(probabilistic chance)を定義できる。 0.77
Nt(cid:89) Nt(cid:89) 0.42
p(Dt|f ) = p(Dt|f ) = 0.44
Binomial(Li | Mt, f (θi)). binomial(li | mt, f (θi))。 0.74
3. Leverage Bayes’ theorem to define the posterior distribution over functions 3.ベイズの定理を利用して関数の後方分布を定義する 0.84
i=1 given the observations i=1 である。 観察によると 0.51
Computing p(Dt) = (cid:82) p(Dt|f )p(f )df is almost always computationally in- 計算 p(Dt) = (cid:82) p(Dt|f )p(f )df はほとんど常に計算的に in- である。 0.72
p(f|Dt) = p(Dt) p(f|Dt) = p(Dt) 0.43
. tractable for non-conjugate prior-likelihood distributions. . 非共役事前相似分布を選べる。 0.47
Therefore, we need algorithms to accurately approximate such posterior distribution. したがって,このような後方分布を正確に近似するアルゴリズムが必要である。 0.66
p(Dt|f )p(f ) p(Dt|f )p(f ) 0.48
英語(論文から抽出)日本語訳スコア
6 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 6 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
4. Evaluate such posterior at points θ∗, resulting in a predictive distribution p(f∗|θ∗, Dt), whose statistics are used to obtain the desired estimate of the satisfaction probability together with the respective credible interval. 4 点 θ∗ でそのような後部を評価すると、その統計値を用いて各信頼区間と共に満足確率の所望の推定値を得る予測分布 p(f∗|θ∗, Dt) が得られる。 0.86
SV-smMC leverages stochastic variational inference to efficiently compute the approximate posterior distribution p(f|Dt) so that smMC inference scales well to large dataset Dt. SV-smMCは確率的変分推論を利用して近似後部分布 p(f|Dt) を効率的に計算し、smMC推論は大きなデータセットDtとよく一致する。 0.62
In particular, SV-smMC proposes two alternative probabilistic models to define distributions over function f . 特に、SV-smMCは関数 f 上の分布を定義するための2つの代替確率モデルを提案する。 0.63
The first one is based on Gaussian Processes (GP), whereas the second one is based on Bayesian Neural Networks (BNN). 1つはガウス過程(gp)、2つ目はベイズニューラルネットワーク(bnn)に基づいている。
訳抜け防止モード: 1つ目はガウス過程(GP)に基づくものである。 一方、後者はBayesian Neural Networks (BNN)に基づいている。
0.77
3.1 Gaussian Processes Gaussian Processes (GP) define a distribution over real-valued functions of the form g : Θ → R and such distribution is uniquely identified by its mean and covariance functions, respectively denoted by µ(θ) = E[g(θ)] and kγ(θ, θ(cid:48)). 3.1 ガウス過程 ガウス過程 (GP) は g の形の実数値関数上の分布を定義し、その分布は μ(θ) = E[g(θ)] と kγ(θ, θ(cid:48)) で表される平均関数と共分散関数によって一意に識別される。 0.76
The GP can thus be denoted as GP(µ(θ), kγ(θ, θ(cid:48))). したがって、GP は GP(μ(θ), kγ(θ, θ(cid:48)) と表すことができる。 0.85
This means that the function value at any point θ, g(θ), is a Gaussian random variable with mean µ(θ) and variance kγ(θ, θ). これは任意の点 θ, g(θ) における関数値は平均 μ(θ) と分散 kγ(θ, θ) を持つガウス確率変数であることを意味する。 0.87
Let gt, µt and KNtNt denote respectively the latent, the mean and the covariance functions evaluated over the training inputs Θt. gt, μt と KNtNt はそれぞれ、トレーニング入力 t に対して評価された潜在関数、平均関数、共分散関数を表す。 0.65
The outputs of the latent functions g : Θ → R are mapped into the [0, 1] interval by means of a so-called link function Φ, typically the logit or the probit function, so that f = g ◦ Φ. 潜在関数 g : θ → r の出力は、いわゆるリンク関数 φ によって [0, 1] 間隔にマッピングされる。
訳抜け防止モード: 潜在関数 g : θ → r の出力は、リンク関数 φ と呼ばれる so によって [0, 1 ] 間隔にマッピングされる。 通常、ロジット(logit)またはプロビット関数(probit function)は、f = g {\displaystyle g} となる。
0.76
The GP prior over latent functions g is defined as p(g|Θt) = N (g | µt, KNtNt). 潜在関数 g 上の gp は p(g|θt) = n (g | μt, kntnt) と定義される。 0.82
For simplicity, we assume µt = 0. 単純さのため、μt = 0 と仮定する。 0.67
In order to do inference over a test input θ∗, with latent variable g∗, we have to compute テスト入力 θ∗ 上で推論を行うには、潜在変数 g∗ で計算しなければならない。 0.72
p(f∗|θ∗, Θt, Lt) = p(f∗|θ∗, st, Lt) = 0.48
Φ(g∗)p(g∗|θ∗, Θt, Lt)dg∗, t(g∗)p(g∗|θ∗, t, Lt)dg∗。 0.81
(4) (cid:90) (4) (cid:90) 0.41
(cid:90) where Lt, denotes the set of Boolean tuples corresponding to points in Θt. (cid:90) ここで Lt は t の点に対応するブールタプルの集合を表す。 0.52
To compute equation (4), we have to marginalize the posterior over the latent Gaussian variables: 方程式 (4) を計算するには、後続のガウス変数を余剰化しなければならない。 0.60
p(g∗|θ∗, Θt, Lt) = p(g∗|θ∗, st, Lt) = 0.48
p(g∗|θ∗, Θt, gt)p(gt|Θt, Lt)dgt, p(g∗|θ∗, st, gt)p(gt|\t, Lt)dgt, 0.46
(5) where the posterior p(gt|Θt, Lt) is not available in closed form since it is the convolution of a Gaussian and a binomial distribution. (5) 後方 p(gt|θt, lt) はガウス分布と二項分布の畳み込みであるため閉形式では利用できない。 0.58
Hence, we have to rely on approximations in order to compute the posterior p(gt|Dt) and thus solve (5). したがって、後方 p(gt|dt) を計算し、したがって (5) を解くためには近似に頼る必要がある。 0.68
Once we obtain a tractable approximation of p(g∗|θ∗, Θt, Lt), we can easily compute an empirical approximation of p(f∗|θ∗, Θt, Lt). ひとたび p(g∗|θ∗, st, Lt) の抽出可能な近似が得られれば、p(f∗|θ∗, st, Lt) の経験的近似を容易に計算できる。 0.75
Stochastic Variational Inference. Here we provide an understanding of how SVI works over GP with non-Gaussian likelihoods. 確率的変分推論。 ここで、SVI が非ガウス確率で GP 上でどのように働くかを理解する。 0.44
For a more detailed description, we refer the interested reader to [9,10]. 詳細については、興味のある読者を[9,10]を参照してください。 0.69
Variational approaches to GP start with sparsification. gpへの変分アプローチはスパーシフィケーションから始まる。 0.58
It defines a set of m (cid:28) Nt inducing points Z = {z1, . . . , zm} 点 Z = {z1, , zm} を誘導する m (cid:28) Nt の集合を定義する。 0.83
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
7 that live in the same space of Θt and, from them, we define a set of inducing variables ut = [g(zi)|zi ∈ Z]. 7 これは t の同じ空間に存在し、そこから変数 ut = [g(zi)|zi ∈ Z] を誘導する集合を定義する。 0.58
The covariance matrix over inducing points, Kmm, is less expensive to invert and thus it act as a low-rank approximation of KNtNt. 誘導点(kmm)上の共分散行列は反転するコストが低く、kntntの低ランク近似として作用する。 0.62
Leveraging Jensen inequality and standard variational relations over the log marginal likelihood, we obtain the following bound: Jensenの不等式と対数限界確率上の標準変分関係を利用すると、次の有界が得られる。
訳抜け防止モード: 対数限界確率に対するイェンセンの不等式と標準変分関係の活用 以下の限界が得られます
0.66
where q(gt) = (cid:82) p(gt|ut)q(ut)dut. ここで q(gt) = (cid:82) p(gt|ut)q(ut)dut である。 0.81
We choose q(ut) := N (ut|m, ˜S), where ˜S is 我々は、q(ut) := N (ut|m, shS) を選択する。 0.81
log p(Lt) ≥ Eq(gt)[log p(Lt|gt)] − KL[q(ut)||p(ut)], log p(Lt) ≥ Eq(gt)[log p(Lt|gt)] − KL[q(ut)||p(ut)], 0.42
(6) defined using a lower triangular form, ˜S := SST , in order to maintain positivedefiniteness. (6) 正定値を維持するために、下方三角形の形式 ss := sst を用いて定義される。 0.54
Then q(gt) = N (gt|Am, KNtNt + A( ˜S − Kmm)AT ), そして q(gt) = n (gt|am, kntnt + a( s − kmm)at ) である。 0.76
mm. Since our likelihood factors as p(Lt|gt) =(cid:81)Nt うーん p(lt|gt) =(cid:81)nt の確率因子から 0.50
(7) i=1 p(Li|gi), (7)i=1p(Li|gi) 0.40
where A = KNtNtK−1 the lower bound becomes: A = KNtNtK−1 の場合、下界は次のようになる。 0.57
log p(Lt) ≥ Nt(cid:88) log p(Lt) ≥ Nt(cid:88) 0.50
Eq(gi)[log p(Li|gi)] − KL[q(ut)||p(ut)] := LGP (m, S, Z, γ). Eq(gi)[log p(Li|gi)] − KL[q(ut)||p(ut)] := LGP (m, S, Z, γ)。 0.42
(8) i=1 (8) i=1 である。 0.37
The SVI algorithm then consists of maximizing LGP with respect to its parameters using gradient-based stochastic optimization. sviアルゴリズムは、勾配に基づく確率最適化を用いてパラメータに対してlgpを最大化する。 0.71
The gradient of LGP contains the partial derivatives w.r.t. the SVI hyper-parameters and w.r.t. the hyperparameter γ of the covariance function. LGPの勾配は、SVIハイパーパラメータの部分微分 w.r.t と共分散関数のハイパーパラメータγ w.r.t を含む。 0.71
Computing the KL divergence in (8) requires only O(m3) computations. 8)でのKL分散の計算はO(m3)計算のみを必要とする。 0.72
Most of the work will thus be in computing the expected likelihood terms. したがって、ほとんどの作業は期待された確率条件の計算に費やされる。 0.56
Given the ease of parallelizing the simple sum over Nt, we can optimize LGP in a distributed or in a stochastic fashion by selecting mini-batches of the data at random. nt上での単純な和の並列化の容易さを考えると、ランダムにデータのミニバッチを選択することで、分散あるいは確率的な方法でlgpを最適化することができる。 0.65
(cid:82) p(g∗|ut)q(ut)dut := q(g∗). (cid:82) p(g∗|ut)q(ut)dut := q(g∗)。 0.94
The integral above can be treated similarly to (7), 上記の積分は (7) と同様に扱うことができる。 0.77
Predictive distribution. The posterior of (5) is now approximated as p(g∗|Lt) ≈ computing its mean and variance takes O(m2). 予測分布。 (5) の後方は p(g∗|lt) として近似され、その平均を計算し、分散は o(m2) を取る。 0.51
From the mean and the variance of q(g∗), we obtain the respective credible interval and use the link function Φ to map it to a subset of the interval [0, 1], so that we have mean and credible interval of the posterior predictive distribution p(f∗|θ∗, Dt). q(g∗)の平均と分散から、各信頼区間を求め、リンク関数 φ を用いて区間 [0, 1] の部分集合に写像し、後続予測分布 p(f∗|θ∗, dt) の平均と信頼区間を得る。
訳抜け防止モード: q(g∗ )の平均と分散から、我々はそれぞれの信頼できる間隔を得る そして、リンク関数 φ を使って区間 [0, 1 ] の部分集合に写像する。 したがって、後続予測分布 p(f∗|θ∗, dt ) の平均と信頼できる間隔を持つ。
0.74
3.2 Bayesian Neural Networks 3.2 ベイズニューラルネットワーク 0.73
The core idea of Bayesian neural networks (BNNs) is to place a probability distribution over the weights w of a neural network fw : Θ → [0, 1], transforming the latter into a probabilistic model. ベイズニューラルネットワーク (bnns) の核となる考え方は、ニューラルネットワーク fw : θ → [0, 1] の重み w 上の確率分布を配置し、後者を確率モデルに変換することである。 0.77
The Bayesian learning process starts by defining a prior distribution for w that expresses our initial belief about the weights values. ベイズ学習プロセスは、重み値に関する最初の信念を表現するwの事前分布を定義することから始まります。 0.78
A common choice is to choose a zero-mean Gaussian prior. 一般的な選択は、ゼロ平均ガウス事前を選択することである。 0.60
As we observe data Dt, we update this prior to a posterior distribution using Bayes’ rule: データDtを観察しながら、ベイズのルールを使って後続分布に先立ってこれを更新する。 0.75
p(w | Dt) = p(w | Dt) = 0.42
p(Dt | w)p(w) p(Dt | w)p(w) 0.42
p(Dt) . (9) p(Dt) . (9) 0.42
英語(論文から抽出)日本語訳スコア
8 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 8 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
Because of the non-linearity introduced by the neural network function fw(θ) and since the likelihood is binomial, the posterior p(w|Dt) is non-Gaussian and it cannot be computed analytically. ニューラルネットワーク関数 fw(θ) によって導入された非線形性により、確率は二項であるため、後部 p(w|dt) は非ガウス的であり、解析的に計算することはできない。 0.67
In order to predict the satisfaction function over an unobserved input θ∗, we marginalize the predictions with respect to the posterior distribution of the parameters, obtaining 未観測入力θ∗上での満足度関数を予測するために、パラメータの後方分布に関する予測を余剰化して取得する。 0.79
(cid:90) p(f∗|θ∗, Dt) = (cid:90) p(f∗|θ∗, Dt) = 0.43
fw(θ∗)p(w|Dt)dw. fw(θ∗)p(w|Dt)dw。 0.95
(10) The latter is called posterior predictive distribution and it can be used to retrieve information about the uncertainty of a specific prediction f∗. (10) 後者は後続予測分布と呼ばれ、特定の予測 f∗ の不確かさに関する情報を取得するために用いられる。 0.60
Unfortunately, the integration is analytically intractable due to the non-linearity of the neural network function [3,11]. 残念ながら、ニューラルネットワーク関数[3,11]の非線形性のため、統合は分析的に難解である。 0.71
Stochastic Variational Inference. Given the unknown posterior distribution p(w|Dt), the rationale of SVI is to choose a family of parametric distributions qψ(w), over the same latent variables and minimize the KL divergence between these two distributions, KL[qψ(w)||p(w|Dt)]. 確率的変分推論。 未知の後続分布 p(w|Dt) が与えられたとき、SVI の理性は、同じ潜伏変数上のパラメトリック分布の族 q =(w) を選択し、これらの2つの分布の KL の発散を最小限にすることである。 0.52
The goal is to find the members of the family that are closest to the true posterior p(w|Dt). 目標は、真の後方p(w|dt)に最も近い家族のメンバーを見つけることである。 0.70
Since the posterior distribution is not known, a different objective function, called Evidence Lower Bound (ELBO) [6], is introduced. 後方分布が分かっていないため、エビデンス下限(elbo)[6]と呼ばれる異なる目的関数が導入される。 0.62
In practice, minimizing the KL divergence is equivalent to maximising the Evidence Lower Bound (ELBO), defined as 実際には、klの分岐を最小化することは、エビデンスの下限(elbo)を最大化することと同値である。
訳抜け防止モード: 実際には、KLの発散を最小限にする。 is equivalent to maximising the Evidence Lower Bound (ELBO ) defined
0.81
LBN N (ψ) = Eqψ(w|Dt) [log(Dt|w)] − KL [qψ(w)||p(w)] . LBN N {\displaystyle LBN N} は Eq (w|Dt) [log(Dt|w)] − KL [q (w)||p(w)] である。 0.83
(11) The first term is the expected log-likelihood of our data with respect to values of fw sampled from qψ(w|Dt), whereas the second term is the KL divergence between the proposal distribution and the prior. (11) 第一項は、q (w|Dt) からサンプリングされた fw の値に関して、我々のデータの予測対数類似度であり、第二項は、提案分布と前項の間の KL の偏差である。 0.55
The family of distribution qψ should be a distribution easy to sample from and such that the KL divergence is easy to compute. 分布 q の族はサンプリングが容易な分布であり、KL の発散は計算が容易である。
訳抜け防止モード: 分布 q の族は、容易にサンプリングできる分布であるべきである。 KL の発散は計算が容易である。
0.75
A common choice for qψ is the Gaussian distribution (where ψ denotes its mean and variance). qψ の共通の選択はガウス分布である(そこで ψ はその平均と分散を表す)。 0.77
The KL distribution among two Gaussian distributions has an exact analytical form. 2つのガウス分布のKL分布は、正確な解析形式を持つ。 0.73
Thus, the ELBO of Eq (11) can be computed and it can be used as the objective function of a maximization problem over ψ. したがって、eq(11) の elbo を計算でき、ψ 上の最大化問題の目的函数として使うことができる。 0.69
Empirical approximation of the predictive distribution. 予測分布の実験的近似。 0.69
The predictive distribution (10) is a non-linear combination of Gaussian distributions, and thus it is not Gaussian. 予測分布 (10) はガウス分布の非線形結合であり、ガウス分布ではない。 0.69
However, samples can be easily extracted from q(w; ψ), which allows us to obtain an empirical approximation of the predictive distribution. しかし、サンプルはq(w; s)から容易に抽出することができ、予測分布の経験的近似を得ることができる。 0.75
Let [w1 , . . . , wC ] denote a vector of C realizations of the random variable w ∼ qψ(w). w1 , . . . , wC ] を確率変数 w の C 実化のベクトルとする。 0.54
Each realization wi induces a deterministic function fwi that can be evaluated at θ∗, the unobserved input, providing an empirical approximation of p(f∗|θ∗, Dt). 各実現 wi は θ∗ で評価できる決定論的関数 fwi を誘導し、p(f∗|θ∗, Dt) の経験的近似を与える。 0.74
By the strong law of large numbers, the empirical approximation converges to the true distribution as C → ∞ [19]. 大数の強い法則により、経験的近似は c → ∞ [19] として真の分布に収束する。 0.80
The sample size C can be chosen, for instance, to ensure a given width of the confidence interval for a statistic of interest [16] or to bound the probability that the empirical distribution differs from the true one by at most some given constant [13]. 例えば、サンプルサイズCは、例えば、利子[16]の統計量に対する信頼区間の所定幅を確保するために、または、経験分布が真のものと異なる確率を、与えられた定数[13]で制限するために選択することができる。 0.84
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
9 4 Experiments 4.1 Case studies 9 4つの実験 4.1 事例研究 0.60
In the following, we briefly introduce the case studies that we investigate for understanding the scalability and the accuracy of SV-smMC. 本稿では,SV-smMCのスケーラビリティと精度を理解するためのケーススタディについて紹介する。 0.62
– Network Epidemics (SIR): a simple model describing the spread of an epidemics in a population of fixed size. ネットワーク・エピデミクス(Network Epidemics, SIR)とは、一定サイズの集団における伝染病の拡散を記述する単純なモデルである。 0.63
Susceptible nodes, XS, can be infected after contact with an infected node. 感受性ノード、XSは感染したノードに接触した後に感染する。 0.72
Infected nodes, XI , can recover after some time, and become immune, XR, from the infection. 感染したノードであるXIは、しばらくすると回復し、感染から免疫のXRになる。 0.65
Here we consider the case of permanent immunisation. ここでは永久免疫の事例について考察する。 0.62
The dynamics depends on two parameters β and γ. 力学は2つのパラメータ β と γ に依存する。 0.74
The chosen STL property describes the termination of epidemics in a time between 100 and 120 time units from the epidemic onset: 選択されたSTL特性は、流行開始から100から120までの期間における流行の終了を記述している。 0.60
ϕ = (XI > 0) U[100,120] (XI = 0). φ = (xi > 0) u[100,120] (xi = 0) である。 0.89
– Prokaryotic Gene Expression (PrGeEx): this more complex model captures LacZ, XLacZ, protein synthesis in E. coli. – Prokaryotic Gene Expression (PrGeEx):このより複雑なモデルは、大腸菌のタンパク質合成であるLacZ、XLacZを捉える。 0.81
The dynamics is governed by 11 parameters k1, k2, . . . , k11. 力学は11のパラメータ k1, k2, . , k11 で制御される。 0.86
We chose a STL property for detecting bursts of gene expression: 我々は、遺伝子発現のバーストを検出するSTL特性を選択した。 0.55
ϕ = F[1600,2100](∆XLacZ > 0 ∧ G[10,200](∆XLacZ ≤ 0)), φ = F[1600,2100](-XLacZ > 0 > G[10,200](-XLacZ ≤ 0)) 0.42
where ∆XLacZ(t) = XLacZ(t) − XLacZ(t − 1). XLacZ(t) = XLacZ(t) − XLacZ(t − 1) である。 0.76
This formula monitors rapid increases in LacZ counts, followed by long periods of lack of protein production. この式はlacz数の増加をモニターし、その後長期にわたってタンパク質生産の欠如を追跡する。 0.62
– Three-layer Phosphorelay (PhosRelay): network of three proteins L1, L2, L3 involved in a cascade of phosphorylation reactions (changing the state of the protein), in which protein Lj, in its phosphorylated form Ljp, acts as a catalyser of phosporylation of protein L(j + 1). – 3層ホスホレレー(PhosRelay):リン酸化反応(タンパク質の状態を変える)のカスケードに関与する3つのタンパク質L1,L2,L3のネットワーク。
訳抜け防止モード: 3層蛍光体(フォスリレー) : リン酸化反応のカスケードに関与する3つのタンパク質L1,L2,L3のネットワーク タンパク質の状態を変える) リン酸化型Ljpのタンパク質Ljは、タンパク質L(j + 1 )のホスポリル化の触媒として作用する。
0.85
There is a ligand B triggering the first phosphorylation in the chain. 鎖の第1のリン酸化をトリガーするリガンドbがある。 0.73
The dynamics depends on 6 parameters kp, k1, k2, k3, k4, kd. 力学は6つのパラメータ kp, k1, k2, k3, k4, kd に依存する。 0.70
The chosen STL property models a switch in the most expressed protein between L1p and L3p after time 300 選択されたSTL特性は、300時間後にL1pとL3pの間で最も発現されたタンパク質のスイッチをモデル化する 0.57
ϕ = G[0,300](L1p − L3p ≥ 0) ∧ F[300.,600.](L3p − L1p ≥ 0). φ = G[0,300](L1p − L3p ≥ 0) > F[300.,600.](L3p − L1p ≥ 0)。 0.85
Details about the dynamics, i.e. about the reactions, the selected initial states and the chosen parametric ranges, are provided in Appendix A. 反応、選択された初期状態、選択されたパラメトリック範囲といったダイナミクスの詳細は、Appendix Aに記載されている。 0.78
4.2 Experimental Details used to validate our results, can be summarized as Dv = (cid:8)(θj, ((cid:96)1 4.2 実験 我々の結果を検証するために使用され、Dv = (cid:8)(θj, ((cid:96)1) 0.76
Dataset generation. The training set Dt is built as per Eq (3). データセット生成。 トレーニングセットDtはEq (3)に従って構築される。 0.77
The test set, )) | test set (複数形 test sets) 0.61
j (cid:9), where Mv is chosen very large, Mv (cid:29) Mt, so that we have a j (cid:9) Mv が非常に大きく、Mv (cid:29) が山なので、 0.58
j = 1, . . . , Nv good estimate of the true satisfaction probability over each test input. j = 1 , . . , Nv の各テスト入力に対する真の満足度確率を推定する。 0.83
Input data, i.e. the parameter values, are scaled to the interval [−1, 1] to enhance the performances of the inferred models and to avoid sensitivity to different scales 入力データ、すなわちパラメータ値は間隔[−1, 1]にスケールされ、推論されたモデルの性能を高め、異なるスケールに対する感度を避ける。
訳抜け防止モード: 入力データ、すなわちパラメータ値は間隔 [ −1, 1 ] にスケールされ、推論されたモデルの性能が向上する。 異なるスケールへの敏感さを避けるために
0.85
j , . . . , (cid:96)Mv j , . , (cid:96)Mv 0.41
英語(論文から抽出)日本語訳スコア
10 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 10 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
in the parameter space. In order to deal with scenarios with gradually increasing parametric complexity, we choose, for each case study, different subsets of varying parameters and train a separate model on each of these choices. パラメータ空間で。 パラメトリックな複雑性が徐々に増大するシナリオに対処するために、各ケーススタディで異なるパラメータのサブセットを選択し、それぞれの選択に対して個別のモデルを訓練する。 0.70
In other words, we fix some of the parameters and let only the remaining parameters vary. 言い換えると、いくつかのパラメータを修正し、残りのパラメータだけを変更させます。 0.75
The parameter space considered is thus a subspace of the original one. したがって、考慮されるパラメータ空間は元の部分空間である。 0.74
This allows us to analyze the scalability of the inferred smMC models across the different case studies and with respect to parameter spaces with different dimensions. これにより、異なるケーススタディと異なる次元を持つパラメータ空間に関して、推定されたsmMCモデルのスケーラビリティを分析することができる。 0.76
In particular, in SIR we consider the following configurations: 特にSIRでは、以下の構成を検討します。 0.69
(a) fix γ and let β vary, (a) γ を固定し、β を変化させる。 0.68
(b) fix β and let γ vary, (b) β を固定し、γ を変化させる。 0.71
(c) vary both β and γ; in PrGeEx we consider the following configurations: (c) β と γ の両方が異なる;PrGeEx では以下の構成を考える。 0.82
(d) k2 is the only parameter allowed to vary, (d) k2 は変化を許容する唯一のパラメータである。 0.76
(e) we let k2 and k7 vary; in PhosRelay we consider the following configurations: (f ) only k1 varies, (e) k2 と k7 を異なるものにします。 PhosRelay では、以下の構成を検討します。
訳抜け防止モード: (e) k2 と k7 を phosrelay では、以下の構成を考える: (f) のみの k1 が変化する。
0.80
(g) only kp, kd vary, (g)kp,kdのみが異なる。 0.79
(h) only k1, k2, k3 vary, (h)k1,k2,k3のみが異なる。 0.74
(i) only k1, k2, k3, k4 vary, (l) all six parameters are allowed to vary. (i)k1,k2,k3,k4のみ変化し、(l)6つのパラメータはすべて変更可能である。 0.74
The results over the simple onedimensional scenarios are easy to visualise, thus they represent a good baseline to evaluate the smMC performances. 単純な一次元シナリオに対する結果は容易に視覚化でき、smMCの性能を評価するのに良い基準となる。 0.74
Table 1 contains the dimensions chosen for every training and test dataset. 表1は、トレーニングとテストデータセット毎に選択された次元を含む。 0.70
Dataset Size Training time データセットサイズ 研修時間 0.74
Nt Mt Nv Mv EP-GP SVI-GP SVI-BNN Nt Mt Nv Mv EP-GP SVI-GP SVI-BNN 0.34
500 700 2500 500 700 2500 0.43
500 2500 50 50 50 500 2500 50 50 50 0.43
50 50 1k 1k 400 50 50 1k1k400 0.57
400 400 1k 1k 1k 400 400 1k1k 0.65
1k 1k 01.06 02.36 12.22 1k1k 01.06 02.36 12.22 0.45
01.39 22.11 01.39 22.11 0.25
01.00 06.57 36.13 45.59 − 01.00 06.57 36.13 45.59 − 0.25
01.11 01.44 08.12 01.11 01.44 08.12 0.24
01.13 08.31 01.13 08.31 0.25
01.20 08.70 26.38 33.45 286.33 01.20 08.70 26.38 33.45 286.33 0.22
03.50 05.24 19.15 03.50 05.24 19.15 0.24
03.51 19.10 03.51 19.10 0.25
03.51 19.39 66.30 81.16 92.30 03.51 19.39 66.30 81.16 92.30 0.22
Configuration (a) SIR β 構成 (a)SIR β 0.56
(b) SIR γ (c) SIR β, γ (b)SIRγ (c) SIR β, γ 0.39
(d) PrGeEx k2 (d)PrGeEx k2 0.46
(e) PrGeEx k2, k7 (e)PrGeEx k2,k7 0.43
1k 50 (f ) PhosRelay k1 1k 50 1k50 (f ) PhosRelay k1 1k50 0.86
(g) PhosRelay kp, kd 20 1k (g)ホスレレーkp、kd201k 0.48
(h) PhosRelay k1, k2, k3 (h)fosRelay k1,k2,k3 0.38
(i) PhosRelay k1, . . . , k4 20 4096 1k (l) PhosRelay kp, k1, . . . , k4, kd 1000k 20 4096 1k (i) phosrelay k1, . . . , k4 20 4096 1k (l) phosrelay kp, k1, . . . , k4, kd 1000k 20 4096 1k
訳抜け防止モード: (i) PhosRelay k1, ., k4 20 4096 1k (l ) PhosRelay kp, k1, ..., K4、KD 1000k 20 4096 1k
0.85
500 2500 8k 10k 500 2500 8k 10k 0.42
1k 400 1k Table 1: Size of training (Dt) and test (Dv) datasets and training time (min) for EP-GP, SVI-GP and SVI-BNN. 1k4001k 表1: EP-GP、SVI-GP、SVI-BNNのトレーニングのサイズ(Dt)とテスト(Dv)データセットとトレーニング時間(min)。 0.82
Nt and Nv denote the number of parameter values, while Mt and Mv denote the number of Bernoulli observations for each parameter value. nt と nv はパラメータ値の個数を表し、mt と mv は各パラメータ値のベルヌーイ観測の個数を表す。
訳抜け防止モード: Nt と Nv はパラメータ値の数を表していますが、 Mt と Mv は、各パラメータ値のベルヌーイ観測数を表す。
0.81
Underlined values correspond to GPU computations. アンダーライン値はGPU計算に対応する。 0.74
EP-GP training time for the last configuration is not reported due to memory timeout. ep-gp 最終設定のトレーニング時間はメモリタイムアウトのため報告されない。 0.70
Experimental settings. The CTMC dynamics is simulated via StochPy SSA simulator. 実験的設定。 CTMCダイナミクスはStochPy SSAシミュレータを介してシミュレーションされる。 0.81
The Boolean semantics of pcheck library1 is used to check the satisfaction of a certain formula for a specific trajectory. pcheck library1のブール意味論は、特定の軌道に対する特定の公式の満足度を確認するために用いられる。 0.71
GPyTorch [7] library is used to train the SVI-GP models and Pyro [2] library is used to train the SVIBNN models, both built upon PyTorch [14] library. gpytorch [7]ライブラリはsvi-gpモデルのトレーニングに、pyro [2]ライブラリはpytorch [14]ライブラリ上に構築されたsvibnnモデルのトレーニングに使用される。
訳抜け防止モード: GPyTorch [ 7 ] ライブラリは SVI のトレーニングに使用される -GPモデルとPyro [2 ]ライブラリが使用される PyTorch [ 14 ] ライブラリ上に構築された SVIBNN モデルをトレーニングする。
0.86
Instead, EP-GP is imple- 代わりにEP-GPは不完全である 0.50
1 https://github.com/s imonesilvetti/pcheck 1 https://github.com/s imonesilvetti/pcheck 0.23
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
11 mented in NumPy2. 11 NumPy2に登録。 0.53
The experiments were conducted on a shared virtual machine with 32 cores, Intel(R) Xeon(R) Gold 6140 CPU @ 2.30GHz processors and 264GB of RAM and a NVidia V100 GPU with 16Gb of RAM. 実験は32コアの共有仮想マシン、Intel(R) Xeon(R) Gold 6140 CPU @ 2.30GHz、RAMは264GB、RAMは16GbのNVidia V100 GPUで実施された。 0.83
The results are fully reproducible. 結果は再現可能である。 0.70
Code is available at: https://github.com/g inevracoal/ smoothed-model-check ing. コードはhttps://github.com/g inevracoal/ smoothed-model-check ingで入手できる。 0.51
Training and evaluation. We apply Stochastic Variational Inference on both Gaussian Processes (SVI-GPs) and Bayesian Neural Networks (SVI-BNNs) and compare them to the baseline smMC approach, where Gaussian Processes were inferred using Expectation Propagation (EP-GPs). 訓練と評価。 我々は,gaussian process (svi-gps) と bayesian neural networks (svi-bnns) の両方に確率的変分推論を適用し,gaussian processが期待伝播 (ep-gps) を用いて推定されたベースラインsmmc法と比較した。 0.69
All models (EP-GP, SVI-GP and SVI-BNN) are Bayesian and trained over the training set Dt. 全てのモデル(EP-GP、SVI-GP、SVI-BNN)はベイジアンであり、トレーニングセットDtで訓練される。 0.65
Once the training phase is over, for each pair(cid:0)θj, ((cid:96)1 一度 トレーニングフェーズは終了し、各ペア(cid:0)θj, ((cid:96)1 0.70
)(cid:1) ∈ Dv in the test set, we )(cid:1) ∈ Dv である。 0.60
j , . . . , (cid:96)Mv j , . , (cid:96)Mv 0.41
j obtain a probabilistic estimate of the satisfaction probability f (θj) (defined in Section 3). j 満足度確率f(θj)の確率的推定を得る(第3節で定義)。 0.61
We compare such distribution to the satisfaction probability fϕ(θj), estimated as the mean over the Bernoulli trials ((cid:96)1 ). そのような分布をベルヌーイ試行((cid:96)1 )の平均として推定される満足度確率 fφ(θj) と比較する。 0.76
For simplicity, we call the latter SMC satisfaction probability. 単純性については、後者をSMC満足度確率と呼ぶ。 0.62
We stress that SMC estimates provably converge to the true satisfaction probabilities, meaning that the width of confidence intervals converges to zero in the limit of infinite samples, while Bayesian inference quantifies the predictive uncertainty. smc推定は真の満足度確率に確実に収束することを強調し、信頼区間の幅は無限サンプルの限界でゼロに収束し、ベイズ推論は予測の不確かさを定量化する。 0.75
Consequently, regardless of the number of samples, SMC and Bayesian estimates have different statistical meanings. したがって、サンプルの数に関係なく、SMCとベイズ推定は異なる統計的意味を持つ。 0.78
j , . . . , (cid:96)Mv j , . , (cid:96)Mv 0.41
j Evaluation metrics. To define meaningful measures of performance, let’s clarify the notation. j 評価指標。 パフォーマンスの有意義な尺度を定義するために、記法を明確にしましょう。 0.57
For each point in the test set, j ∈ {1, . . . , Nv}, let fϕ(θj) and σj denote respectively the average and the standard deviation over the Mv Bernoulli trials ((cid:96)1 ). テスト集合の各点について、j ∈ {1, . . , Nv} に対して、fφ(θj) と σj はそれぞれ Mv Bernoulli 試行((cid:96)1 )に対する平均と標準偏差を表す。 0.76
The inferred models, on the other hand, provide a posterior predictive distribution p(fj|θj, Dt), let qj α denote the α-th quantile of such distribution. 一方、推定されたモデルは、後続予測分布 p(fj|θj, Dt) を与え、qj α はそのような分布の α-次量子化を表す。 0.82
The metrics used to quantify the overall performances of the models over each case study and each configuration are the following: モデル全体のパフォーマンスを各ケーススタディと各構成で定量化するために使用されるメトリクスは以下のとおりである。 0.81
j , . . . , (cid:96)Mv j , . , (cid:96)Mv 0.41
j (i) the mean squared error (MSE) between SMC and the expected satisfaction j (i)SMCと期待満足度の間の平均二乗誤差(MSE) 0.65
probabilities, i.e. the average of the squared residuals 確率、すなわち2乗残差の平均は 0.60
MSE = 1 Nv Nv(cid:88) MSE = 1Nv Nv(cid:88) 0.41
j=1 (cid:0)fϕ(θj) − Ep(f|θj ,Dt)[f (θj)](cid:1)2 j=1 (cid:0)fφ(θj) − Ep(f|θj ,Dt)[f(θj)](cid:1)2 0.38
. This measure evaluates the quality of reconstruction provided by the mean of the posterior predictive distribution; (ii) the accuracy over the test set, i.e. the fraction of non empty intersections between SMC confidence intervals and estimated (1 − α) credible intervals: . この尺度は、後続の予測分布の平均によって提供される再構成の質を評価する; (ii)テストセット上の精度、すなわち、SMC信頼区間と推定(1 − α)信頼区間の間の非空の交点の分画。 0.65
Acc = 1 Nv · Acc= 1Nv · 0.41
j ∈ {1, . . . , Nv} : j ∈ {1, . . . , nv} : 0.41
− z σj√ Mv − z σj = Mv 0.39
, z σj√ Mv , z σj mv である。 0.40
∩ qj α/2, qj ∩ qj α/2, qj 0.42
1−α/2 (cid:54)= ∅ 1−α/2 (出典:54)=... 0.35
(cid:40) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (系統:40) (cid:12)(cid:12)(cid :12)(cid:12) 0.55
(cid:34) (cid:35) (cid:34) (cid:35) 0.39
(cid:34) (cid:35) (cid:34) (cid:35) 0.39
(cid:41)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12). (cid:41)(cid:12)(cid :12)(cid:12)(cid:12) 。 0.42
2 Our implementation builds on https://github.com/s imonesilvetti/pyChec k/ 実装はhttps://github.com/s imonesilvetti/pychec k/で構築します。 0.35
blob/master/smothed/ smoothedMC.py blob/master/smothed/ smoothedMC.py 0.12
英語(論文から抽出)日本語訳スコア
12 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 12 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
In particular, we set z = 1.96 and α = 0.05 in order to have the 95% confidence intervals and the 95% credible intervals respectively; 特に、それぞれ95%の信頼区間と95%の信頼区間を持つために、z = 1.96 と α = 0.05 を定める。 0.78
(iii) the average width of the estimated credible intervals (iii)推定信頼区間の平均幅 0.62
(cid:1), Unc = (cid:1) unc = 0.34
1 Nv 1−α/2 − qj 1Nv 1−α/2−qj 0.34
α/2 (cid:0)qj α/2 (cid:0)qj 0.36
Nv(cid:88) Nv(cid:88) 0.42
j=1 which quantifies how informative the predictive uncertainty is and allows us to detect overconservative predictors. j=1 予測の不確実性がいかに情報であるかを定量化し 過保守な予測を検出できます 0.48
A good predictor should be balanced in terms of low MSE, high test accuracy, i.e. high values for Acc, and narrow credible intervals, i.e. low values for Unc. 優れた予測器は、低いmse、高いテスト精度、すなわちaccの高値、狭い信頼区間、すなわちuncの低値という観点でバランスをとるべきである。 0.71
To account for numerical errors we set the estimated lower bounds qj 0.025 to zero whenever qj 数値誤差を考慮し、推定下限の qj 0.025 を 0 に設定する。 0.79
0.025 < 10−6. 0.025 < 10−6. 0.33
Implementation details. SVI-GP models are trained for 1k epochs with minibatches of size 100 and a learning rate of 0.01. 実装の詳細。 SVI-GPモデルは100のミニバッチと0.01の学習率を持つ1kエポックに対して訓練される。 0.68
The GP prior is computed on a maximum of 1k inducing points selected from the training set. GP事前は、トレーニングセットから選択された最大1kの誘導ポイントで計算される。 0.76
SVI-BNNs have a fully connected architecture with 3 layers and Leaky ReLU nonlinear activations. SVI-BNNは3層とLeaky ReLU非線形アクティベーションを備えた完全に接続されたアーキテクチャを持つ。 0.61
They are trained for 5k epochs with mini-batches of size 100 and a learning rate of 0.001. 訓練は5kエポックで、サイズ100のミニバッチと0.001の学習率を持つ。 0.69
The prior distribution over the weights of the BNNs is a Gaussian N (0, 1/m) on each weight, where m is the layer width, i.e. the number of neurons per layer. BNNの重みに対する以前の分布は、各重みのガウス N (0, 1/m) であり、m は層幅、すなわち層毎のニューロンの数である。 0.73
In the most challenging setting, PhosRelay with 6 parameters (l), we set the number of epochs to 100 and the batch size to 5k for both SVI-GPs and SVI-BNNs. 最も難しい設定として、6つのパラメータ (l) を持つPhosRelayでは、エポックの数を100に、バッチサイズをSVI-GPとSVI-BNNの両方で5kに設定します。 0.59
To evaluate SVI-BNNs we take 1k samples from the posterior distribution evaluated over test inputs. svi-bnnsの評価には,後方分布から1kサンプルを採取した。 0.62
4.3 Experimental Results Computational costs. 4.3 実験結果 計算コスト。 0.70
The cost of EP-GP inference is dominated by the cost of matrix inversion, which is cubic in the number of points in the training set. ep-gp推論のコストは、トレーニングセット内のポイント数で立方体である行列反転のコストによって支配される。 0.68
The cost of SVI-GP inference is cubic in the number of inducing points, which is chosen to be sufficiently small, and linear in the number of training instances. svi-gp推論のコストは誘導点数で立方体であり、これは十分小さいと選択され、トレーニングインスタンス数で線形である。 0.57
The cost of SVI-BNN is linear in the number of training points but it also depends on the architectural complexity of the chosen neural network. SVI-BNNのコストはトレーニングポイント数に線形であるが、選択したニューラルネットワークのアーキテクチャ上の複雑さにも依存する。 0.85
Variational models are trained by means of SGD, which is a stochastic inference approach. 変分モデルは確率的推論手法であるSGDを用いて訓練される。 0.61
Thus, at least on simple configurations, it is likely to take longer than EP in reaching convergence. したがって、少なくとも単純な構成では、収束に達するのにEPよりも長くかかる可能性が高い。 0.64
The computational advantage becomes significant as the complexity of the case study increases, i.e., when the training set is sufficiently large, moving towards the memory-bound problem of EP, which is typically unfeasible on configurations with a parameter space with dimensions larger than four (like our last testing configuration). 例えば、トレーニングセットが十分に大きい場合には、epのメモリバウンド問題へと移行します。これは一般的に、4つ以上の次元(例えば、前回のテスト構成)を持つパラメータ空間を持つ構成では実現不可能です。 0.60
Moreover, SVI-GP has an important collateral advantage in that of optimizing the kernel hyperparameters on the fly during the training phase, whereas in EP-GP the hyperparameters search is performed beforehand and it is rather expensive. さらに、SVI-GPは、トレーニングフェーズ中にカーネルハイパーパラメーターを最適化する上で重要な副次的優位性を持つ一方、EP-GPでは、ハイパーパラメーター探索は事前に行われ、かなり高価である。 0.64
Table 1 reports training times for EP-GP, SVI-GP and SVI-BNN. 表1はEP-GP、SVI-GP、SVI-BNNのトレーニング時間を報告する。 0.54
We can observe how SVI-GP, trained leveraging GPU GPUを活用したSVI-GPのトレーニングを観察できる 0.71
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
13 Fig. 1: Satisfaction probability estimated by EP-GPs, SVI-GPs and SVI-BNNs and true satisfaction probability on 30 equispaced points from the test set on configuration (a), with 95% confidence intervals around the mean. 13 図1: EP-GPs, SVI-GPs, SVI-BNNsで推定される満足度確率と、設定(a)に設定した試験から30の等間隔点における真の満足度確率。 0.84
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
acceleration, is, in general, the most efficient model as its convergence times are comparable to EP’s on simple configurations and they outperform EP on more complex ones. 加速度は一般に最も効率的なモデルであり、収束時間は単純な構成でEPと同等であり、より複雑な構成ではEPより優れている。 0.77
The training times for SVI-BNN are typically larger than EP-GP and SVI-GP for small parameter spaces, becoming more efficient for very large datasets. SVI-BNNのトレーニング時間は、小さなパラメータ空間ではEP-GPやSVI-GPよりも大きく、非常に大きなデータセットではより効率的になる。 0.61
Moreover, we noticed how it seems more convenient to train SVI-BNN on the CPU alone for small datasets, since using the GPU introduces a significant overhead due to memory transfer. さらに、GPUを使用することでメモリ転送による大きなオーバーヘッドが発生するため、小さなデータセットのために、CPU上でSVI-BNNをトレーニングすることがいかに便利かに気付きました。 0.69
Evaluation time for EP-GPs and SVI-GPs is negligible, since it is computed from the analytic posterior. EP-GPとSVI-GPの評価時間は解析後部から計算されるため無視できる。 0.83
Also for SVI-BNNs evaluation time with 1k posterior samples is negligible. また、1k後方サンプルによるSVI-BNNの評価時間も無視できる。 0.59
Configuration MSE Test accuracy 構成 MSE テスト精度 0.65
EP-GP SVI-GP SVI-BNN EP-GP SVI-GP SVI-BNN EP-GP SVI-GP SVI-BNN EP-GP SVI-GP SVI-BNN 0.22
(a) SIR β (b) SIR γ (a)SIR β (b)SIRγ 0.37
(c) SIR β, γ (c) SIR β, γ 0.43
(d) PrGeEx k2 (d)PrGeEx k2 0.46
(e) PrGeEx k2, k7 (e)PrGeEx k2,k7 0.43
1.99 1.05 1.57 1.99 1.05 1.57 0.24
28.52 41.96 28.52 41.96 0.25
1.90 0.71 1.45 1.90 0.71 1.45 0.24
33.95 11.85 33.95 11.85 0.25
2.05 0.93 0.98 2.05 0.93 0.98 0.24
30.39 4.24 30.39 4.24 0.25
100.00 77.80 72.75 100.00 77.80 72.75 0.24
93.75 78.25 93.75 78.25 0.25
98.80 77.30 85.75 98.80 77.30 85.75 0.24
94.00 89.25 94.00 89.25 0.25
100.00 92.60 92.25 100.00 92.60 92.25 0.24
97.50 95.00 97.50 95.00 0.25
5.06 8.68 48.66 113.11 5.06 8.68 48.66 113.11 0.23
- 3.96 5.32 5.28 5.97 3.50 - 3.96 5.32 5.28 5.97 3.50 0.32
(f ) PhosRelay k1 (f) PhosRelay k1 0.49
(g) PhosRelay kp, kd (g)ホスレレーkp、kd 0.55
(h) PhosRelay k1, k2, k3 (h)fosRelay k1,k2,k3 0.38
(i) PhosRelay k1, . . . , k4 (l) PhosRelay kp, k1, . . . , k4, kd Table 2: Mean Squared Error (×10−4) and test accuracy (%) for EP-GP, SVIGP and SVI-BNN. (i) PhosRelay k1, . , k4 (l) PhosRelay kp, k1, . , k4, kd Table 2: Mean Squared Error (×10−4) and test accuracy (%) for EP-GP, SVIGP, SVI-BNN
訳抜け防止モード: (i) PhosRelay k1, ., k4 (l ) PhosRelay kp, k1, ., k4, kd Table 2 : 平均二乗誤差(×10−4) EP - GP, SVIGP のテスト精度 (% ) SVI - BNN。
0.88
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
For each case study, we highlight the minimum MSE and the highest accuracy values. 各ケーススタディでは,最小MSEと最高精度の値を強調した。 0.76
100.00 99.75 100.0 99.92 99.80 100.00 99.75 100.0 99.92 99.80 0.22
99.20 96.25 93.70 93.65 97.02 99.20 96.25 93.70 93.65 97.02 0.22
99.70 99.25 99.80 99.02 99.70 99.25 99.80 99.02 0.23
- 3.17 3.59 4.05 7.11 2.43 - 3.17 3.59 4.05 7.11 2.43 0.32
英語(論文から抽出)日本語訳スコア
14 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 14 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
Configuration Test set EP-GP SVI-GP SVI-BNN 構成 テストセットEP-GP SVI-GP SVI-BNN 0.65
(a) SIR β (b) SIR γ (a)SIR β (b)SIRγ 0.37
(c) SIR β, γ (c) SIR β, γ 0.43
(d) PrGeEx k2 (d)PrGeEx k2 0.46
(e) PrGeEx k2, k7 (e)PrGeEx k2,k7 0.43
(f ) PhosRelay k1 (f) PhosRelay k1 0.49
(g) PhosRelay kp, kd (g)ホスレレーkp、kd 0.55
(h) PhosRelay k1, k2, k3 (h)fosRelay k1,k2,k3 0.38
(i) PhosRelay k1, . . . , k4 (l) PhosRelay kp, k1, . . . , k4, kd (i) PhosRelay k1, . , k4 (l) PhosRelay kp, k1, . , k4, kd 0.42
0.044 0.018 0.019 0.044 0.018 0.019 0.24
0.039 0.043 0.039 0.043 0.25
0.058 0.055 0.050 0.050 0.049 0.058 0.055 0.050 0.050 0.049 0.22
0.044 0.018 0.042 0.044 0.018 0.042 0.24
0.030 0.021 0.030 0.021 0.25
0.059 0.108 0.340 0.682 0.059 0.108 0.340 0.682 0.23
- 0.032 0.012 0.019 - 0.032 0.012 0.019 0.33
0.037 0.056 0.037 0.056 0.25
0.046 0.037 0.030 0.030 0.028 0.046 0.037 0.030 0.030 0.028 0.22
0.097 0.058 0.047 0.097 0.058 0.047 0.24
0.080 0.093 0.080 0.093 0.25
0.100 0.093 0.121 0.150 0.087 0.100 0.093 0.121 0.150 0.087 0.22
Table 3: Average uncertainty width for EP-GP, SVI-GP and SVI-BNN compared to the average uncertainty width of the test set. 表3: EP-GP, SVI-GP, SVI-BNNの平均不確かさ幅をテストセットの平均不確かさ幅と比較する。 0.74
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
For each case study we highlight the lowest and highest uncertainty values. 各ケーススタディでは、最も低い、最も確実な値を強調します。 0.49
Performance evaluation. パフォーマンス評価。 0.70
The evaluation metrics are the mean square error (MSE), the accuracy (Acc) and the width of the uncertainty quantification area (Unc). 評価指標は平均二乗誤差(mse)、精度(acc)、不確かさ定量化領域(unc)の幅である。 0.62
Results are summarized in Tables 2 (MSE and Acc) and 3 (Unc). 結果は表2(MSEとAcc)と表3(Unc)にまとめられる。 0.77
In addition, Figures 1, 5, 6, and 7 show the results over the one-dimensional configurations - さらに、図1、5、6、7は1次元構成に関する結果を示している。 0.76
(a), (b), (d) and (f ) respectively - whose results over the test set are easy to visualise. (a) b) と (d) と (f) はそれぞれテストセットに対する結果の可視化が容易である。 0.53
In particular, we show the mean and the 95% credible intervals of the estimated satisfaction probability f (θj) for EP-GPs, SVI-GPs and SVI-BNNs. 特に,EP-GP,SVI-GP,SVI-BN Nに対する推定満足度確率f(θj)の平均と95%の信頼区間を示す。 0.82
Figure 2 and Figures 8 and 9 in Appendix B compare the results of EP-GPs, SVI-GPs and SVI-BNNs over the two-dimensional configurations Appendix B の図 2 と図 8 と図 9 は、EP-GPs, SVI-GPs, SVI-BNNs の結果を二次元構成と比較する 0.75
(c), (e) and (g). (c)、(e)、(g) 0.58
In particular, we compare the SMC satisfaction probability fϕ(θj) to the average satisfaction probability E[f (θj)] estimated by EP-GPs, SVI-GPs and SVI-BNNs over each input θj of the test set. 特に,SMC満足度確率fφ(θj)とEP-GPs,SVI-GPs,SVI-B NNsで推定される平均満足度確率E[f(θj)]を比較する。 0.74
Figures 3-12, show the width of the credible intervals against the width of SMC confidence intervals. 図3〜12は、SMC信頼区間の幅に対して信頼区間の幅を示す。 0.79
In particular, for one-dimensional configurations (Fig. 3 and Fig 10 in Appendix B) we show how the width varies w.r.t. parameter values. 特に、一次元構成(付録bの図3と図10)では、幅がw.r.t.パラメータ値にどのように変化するかを示す。 0.68
In all the remaining configurations (Fig. 4 and Fig 11, 12 in Appendix B), we show the distribution of the width over the test set. 残りの構成(図4、図11、図12、Appendix B)では、テストセット上の幅の分布を示す。 0.63
We now compare the numerical results obtained by the variational approaches of SV-smMC to those of the smMC baseline based on EP-GP. SV-smMCの変分アプローチによる数値結果と,EP-GPに基づくsmMCベースラインの数値結果を比較する。 0.76
Table 2 shows how the MSE of SV-smMC solutions is almost always lower than that of smMC. 表2は、SV-smMCソリューションのMSEが、ほとんど常にsmMCよりも低いことを示す。 0.75
In particular, SVI-GP outperforms SVI-BNN on low-dimensional configurations, whereas SVI-BNN performs better in high-dimensional scenarios. 特にSVI-GPは低次元構成においてSVI-BNNより優れており、SVI-BNNは高次元のシナリオでは優れている。 0.55
In addition, the baseline solution presents an MSE that grows proportionally to the complexity and the dimensionality of the underlying configuration. さらに、ベースラインソリューションは、基盤となる構成の複雑さと寸法に比例して増加するmseを示す。 0.71
On the contrary, SV-smMC solutions do not reflect such behaviour, as the value of the MSE is almost constant across all the different configurations. 逆に、SV-smMCソリューションは、MSEの値はすべての異なる構成でほぼ一定であるため、そのような振る舞いを反映しない。 0.72
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
15 Fig. 2: True satisfaction probability is compared to the satisfaction probability estimated by EP-GPs, SVI-GPs and SVI-BNNs on the test set for configuration (c). 15 図2:真の満足度確率は、設定のためのテストセット(c)上でEP-GP、SVI-GP、SVI-BNNによって推定される満足度確率と比較する。 0.53
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
All models reach extremely high accuracies over the test set. すべてのモデルはテストセットに対して非常に高い精度に達する。 0.70
SVI-BNN reaches the best performances over all the configurations: the average accuracy is around 97.68% and it is always higher than 92.25%. SVI-BNNは全ての構成で最高のパフォーマンスに達し、平均精度は97.68%、常に92.25%以上である。 0.80
This result is not surprising, given that SVI-BNN shows low MSEs and slightly over-conservative credible intervals (see Table 3). この結果は、svi-bnn が低い mse と若干の保存的信頼区間を示していることを考えると驚くことではない(表3)。 0.59
Fig. 3: Uncertainty of true (test) and predicted (EP-GP, SVI-GP, SVI-BNN) satisfaction probabilities for models trained on configuration 図3:構成訓練モデルにおける真(テスト)の不確かさと予測(EP-GP, SVI-GP, SVI-BNN)満足度確率 0.83
(a) (left) and configuration (a)(左)及び構成 0.77
(b) (right). SVI-BNNs are evaluated using 1k posterior samples. b) (右)。 SVI-BNNは1k後方サンプルを用いて評価した。 0.53
About the informativeness of uncertainty estimations, we notice how SVIBNN tends to produce credible intervals that are always larger than the one of SVI-GP, which, in turn, tends to underestimate the underlying uncertainty. 不確実性推定の有意性について、SVIBNNはSVI-GPよりも常に大きい信頼区間を生成する傾向にあり、その基礎となる不確実性を過小評価する傾向にある。 0.70
This phenomenon appears in all the different configurations and it is easily observable in Fig 3-12. この現象は様々な構成に現れ、図3-12で容易に観測できる。 0.75
On the other hand, the baseline smMC tends to have tight uncertainty estimates on low-dimensional configurations, but it becomes excessively over-conservative in high-dimensional configurations, making the predicted credible intervals almost uninformative. 一方、ベースラインsmMCは低次元構成に対して厳密な不確実性推定を行う傾向にあるが、高次元構成では過度に過保守となり、予測される信頼区間はほぼ不定形となる。 0.62
Discussion. To summarize, we can see how, in general, SV-smMC solutions scale a lot better to high-dimensional problems compared to smMC, both in terms of 議論だ 要約すると、SV-smMC の解が smMC と比較して高次元問題よりもいかにスケールするかが分かる。
訳抜け防止モード: 議論だ まとめると、 一般に SV - smMC のソリューションは smMC に比べて高次元問題よりもはるかによくスケールする。 both (複数形 boths)
0.67
英語(論文から抽出)日本語訳スコア
16 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 16 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
Fig. 4: Distribution of uncertainty for test parameters’ tuples of true (test) and predicted (EP-GP, SVI-GP, SVI-BNN) satisfaction probabilities for configurations (c) and (i). 図4: テストパラメータのタプル(テスト)と予測(ep-gp, svi-gp, svi-bnn)に対する不確実性の分布 構成(c)および(i)に対する満足度 0.81
SVI-BNNs are evaluated using 1k posterior samples. SVI-BNNは1k後方サンプルを用いて評価した。 0.49
feasibility and in terms of quality of the results. 実現可能性と結果の質の面で 0.63
SVI-BNN takes longer training times (for small parameter spaces), reaches the highest accuracy and provides rather conservative predictions. SVI-BNNはより長いトレーニング時間(小さなパラメータ空間の場合)を要し、高い精度に達し、かなり保守的な予測を提供する。 0.64
SVI-GP, on the other, is the most efficient with respect to training times in low dimensions, reaches low MSEs and tends to provide overconfident predictions. 一方、SVI-GPは低次元でのトレーニング時間に関して最も効率的であり、低いMSEに達し、自信過剰な予測を提供する傾向がある。 0.64
Finally, we see how EP-GP is competitive only on extremely simple configurations. 最後に、EP-GPが極めて単純な構成でのみ競合することを示す。 0.71
As the dimensionality increases, so does the error: the MSE increases and the credible intervals becomes excessively broad. 次元が大きくなるにつれて、誤差も増大する: mseは増加し、信頼できる間隔は過度に広くなる。
訳抜け防止モード: 次元が大きくなると、誤差も大きくなる : MSEは増加し, 信頼区間は過度に広まっていく。
0.82
Moreover, we soon reach the memory-bound wall that makes EP-GP solution unfeasible on configurations with more than four parameters. さらに、EP-GPソリューションを4つ以上のパラメータを持つ構成では実現不可能なメモリバウンドウォールにもたどり着く。 0.71
5 Conclusions This paper presents SV-smMC, an extension of Smoothed Model Checking, based on stochastic variational inference, that scales well to high dimensional parameter spaces and that enables GPU acceleration. 結論5 本稿では,sv-smmc(sv-smmc)を提案する。sv-smmcは,確率的変分推論に基づいて,高次元パラメータ空間によく拡張し,gpuアクセラレーションを実現する。
訳抜け防止モード: 結論5 本稿では,Smoothed Model Checkingの拡張であるSV-smMCについて述べる。 確率的変分推論に基づいて 高次元パラメータ空間にうまくスケールし、GPUアクセラレーションを可能にする。
0.64
In addition, this paper offers a comparison of the performances of stochastic variational inference over two different Bayesian approaches - namely Gaussian processes (SVI-GP) and Bayesian neural networks (SVI-BNN) - against those of the baseline smMC, based on the expectation propagation technique. さらに,本論文では,gaussian process (svi-gp) と bayesian neural networks (svi-bnn) の2つのベイズ法における確率的変分推論の性能を期待伝播法に基づいて比較した。 0.70
In particular, our experiments show that the posterior predictive distribution provided by SVI-BNN provides the best overall results in terms of the estimated satisfaction probabilities. 特に, svi-bnn による後方予測分布は, 推定満足度の観点から, 最良の結果が得られることを示した。 0.72
On the other hand, thanks to GPU acceleration, SVI-GP is able to achieve competitive performances with a significant speedup in computational time. 一方、GPUアクセラレーションにより、SVI-GPは計算時間を大幅に高速化して競合性能を達成することができる。 0.78
Furthermore, we show how variational approaches are able to overcome the computational limit of expectation propagation algorithm over large datasets. さらに,大規模データセット上での期待伝播アルゴリズムの計算限界を,変分的アプローチが克服できることを示す。 0.84
SV-smMC can be naturally extended with active learning ideas, following SV-smMCは、アクティブラーニングのアイデアによって自然に拡張できる 0.70
the line of [5,1,17], to solve efficiently parameter synthesis and design tasks. パラメータ合成と設計タスクを効率的に解決する[5,1,17]行。 0.81
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
17 References 1. Bartocci, E., Bortolussi, L., Nenzi, L., Sanguinetti, G. 17 参考文献 バルトッチ, E., Bortolussi, L., Nenzi, L., Sanguinetti, G 0.54
: System design of stochastic models using robustness of temporal properties. 時間特性のロバスト性を利用した確率モデルのシステム設計 0.79
Theor. Comput. Theor Comput 0.38
Sci. 587, 3– 25 (2015). Sci 587, 3– 25 (2015). 0.36
https://doi.org/10.1 016/j.tcs.2015.02.04 6, https://doi.org/10.1 016/ j.tcs.2015.02.046 https://doi.org/10.1 016/j.tcs.2015.02.04 6, https://doi.org/10.1 016/j.tcs.2015.02.04 6 0.12
2. Bingham, E., Chen, J.P., Jankowiak, M., Obermeyer, F., Pradhan, N., Karaletsos, T., Singh, R., Szerlip, P.A., Horsfall, P., Goodman, N.D.: Pyro: Deep universal probabilistic programming. 2. Bingham, E., Chen, J.P., Jankowiak, M., Obermeyer, F., Pradhan, N., Karaletsos, T., Singh, R., Szerlip, P.A., Horsfall, P., Goodman, N.D.: Pyro: Deep Universal Probabilistic Programming。
訳抜け防止モード: 2ビンガム e. チェン j. p. ヤンコウィアク m., obermeyer, f., pradhan, n., karaletsos. t.、singh、r.、szerlip、p.a.、horsfall。 p., goodman, n.d. : pyro : deep universal probabilistic programming 。
0.78
J. Mach. Learn. Res. 20, 28:1–28:6 (2019), http:// jmlr.org/papers/v20/ 18-403.html j・マッハ 学ぶ。 Res. 20, 28:1–28:6 (2019), http://jmlr.org/pape rs/v20/18-403.html 0.47
3. Bishop, C.M.: Pattern recognition and machine learning. 3. c.m.ビショップ:パターン認識と機械学習。 0.73
Springer (2006) Springer (複数形 Springers) 0.30
4. Bortolussi, L., Milios, D., Sanguinetti, G. 4) Bortolussi, L., Milios, D., Sanguinetti, G。 0.38
: Smoothed model checking for uncertain continuous-time markov chains. : 不確定な連続時間マルコフ連鎖に対するモデルチェックの平滑化 0.67
Information and Computation 247, 235–253 (2016) 情報計算247,235-253 (2016) 0.76
5. Bortolussi, L., Silvetti, S. 5) Bortolussi, L., Silvetti, S。 0.75
: Bayesian statistical parameter synthesis for linear temporal properties of stochastic models. : 確率モデルの線形時間的性質に対するベイズ統計パラメータ合成 0.81
In: Beyer, D., Huisman, M. (eds.) Tools and Algorithms for the Construction and Analysis of Systems - 24th International Conference, TACAS 2018. in: beyer, d., huisman, m. (eds.) tools and algorithms for the construction and analysis of systems - 24th international conference, tacas 2018(英語)
訳抜け防止モード: Beyer, D., Huisman, M. (eds )。 )システムの構築と分析のためのツールとアルゴリズム -第24回国際会議- 2018年。
0.77
Lecture Notes in Computer Science, vol. コンピュータサイエンスにおける講義ノート(Vol.) 0.68
10806, pp. 396–413. 10806, pp. 396-413。 0.78
Springer (2018). スプリンガー(2018年)。 0.29
https://doi.org/10.1 007/978-3-319-89963- 3 23, https: //doi.org/10.1007/97 8-3-319-89963-3_23 https://doi.org/10.1 007/978-319-89963-32 3 https: //doi.org/10.1007/97 8-319-89963-3_23 0.12
6. Deodato, G., Ball, C., Zhang, X. 6. Deodato, G., Ball, C., Zhang, X。 0.83
: Bayesian neural networks for cellular image 細胞画像のためのベイズニューラルネットワーク 0.77
classification and uncertainty analysis. bioRxiv p. 824862 (2019) 分類と不確実性分析 bioRxiv p. 824862 (2019) 0.45
7. Gardner, J.R., Pleiss, G., Bindel, D., Weinberger, K.Q., Wilson, A.G.: Gpytorch: Blackbox matrix-matrix gaussian process inference with gpu acceleration. 7. Gardner, J.R., Pleiss, G., Bindel, D., Weinberger, K.Q., Wilson, A.G.: Gpytorch: Blackbox matrix-matrix gaussian process inference with gpu accelerate。
訳抜け防止モード: 7 ガードナー j.r. プレイス g. バインデル d., weinberger, k.q., wilson, a.g. : gpytorch : blackbox matrix - matrix gaussian process inference with gpu acceleration 。
0.86
In: Proceedings of the 32nd International Conference on Neural Information Processing Systems. 第32回ニューラル情報処理システム国際会議に参加して 0.59
p. 7587–7597. p.7587-7597。 0.25
NIPS’18, Curran Associates Inc., Red Hook, NY, USA (2018) NIPS'18, Curran Associates Inc., Red Hook, NY, USA (2018) 0.42
8. Gillespie, D.T.: Exact stochastic simulation of coupled chemical reactions. 8. Gillespie, D.T.: 結合化学反応の確率論的シミュレーション 0.85
The journal of physical chemistry 81(25), 2340–2361 (1977) その... 物理化学のジャーナル81(25)2340–2361(1977) 0.47
9. Hensman, J., Fusi, N., Lawrence, N.D.: Gaussian processes for big data. 9. Hensman, J., Fusi, N., Lawrence, N.D.: ビッグデータのガウス過程 0.83
arXiv preprint arXiv:1309.6835 (2013) arXiv プレプリントarxiv:1309.6835(2013 年) 0.40
10. Hensman, J., Matthews, A., Ghahramani, Z. 10. Hensman, J., Matthews, A., Ghahramani, Z 0.39
: Scalable variational gaussian process classification. スケーラブルな変分ガウス過程分類。 0.52
In: Artificial Intelligence and Statistics. pp. 351–360. 人工知能と統計学。 pp. 351-360。 0.57
PMLR (2015) pmlr(2015年) 0.56
11. MacKay, D.J.: A practical bayesian framework for backpropagation networks. 11. MacKay, D.J.:バックプロパゲーションネットワークのための実践的なベイズ的フレームワーク。 0.67
Neu- ral computation 4(3), 448–472 (1992) ノイ ral計算 4(3), 448-472 (1992) 0.60
12. Maler, O., Nickovic, D. 12. maler, o., nickovic, d. 0.36
: Monitoring temporal properties of continuous signals. 連続信号の時間的特性のモニタリング 0.68
In: Formal Techniques, Modelling and Analysis of Timed and Fault-Tolerant Systems, pp. 152–166. in: 形式的手法、時間とフォールトトレラントシステムのモデリングと解析、 pp. 152–166。 0.70
Springer (2004) Springer (複数形 Springers) 0.29
13. Massart, P. 13.Massart, P。 0.37
: The tight constant in the dvoretzky-kiefer-wol fowitz inequality. dvoretzky-kiefer-wol fowitz不等式におけるタイト定数 0.53
The annals of Probability pp. 1269–1283 (1990) その... 確率の年代記 pp. 1269–1283 (1990) 0.50
14. Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., et al : Pytorch: An imperative style, highperformance deep learning library. 14. Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., et al : Pytorch: 命令型スタイル,高性能ディープラーニングライブラリ。 0.83
In: Advances in Neural Information Processing Systems. in: 神経情報処理システムの進歩。 0.71
pp. 8024–8035 (2019) pp. 8024-8035(2019) 0.44
15. Piho, P., Hillston, J. 15. piho, p., hillston, j. 0.38
: Active and sparse methods in smoothed model checking. : スムーズなモデル検査におけるアクティブメソッドとスパースメソッド 0.69
In: International Conference on Quantitative Evaluation of Systems. 国際システム評価会議 (international conference on quantitative evaluation of systems) に出席した。 0.53
pp. 217–234. pp. 217–234。 0.39
Springer (2021) 16. Rasch, D., Pilz, J., Verdooren, L., Gebhardt, A. 春(2021年) 16. Rasch, D., Pilz, J., Verdooren, L., Gebhardt, A。 0.45
: Optimal experimental design with R. Chapman and Hall/CRC (2011) 最適実験設計 R. Chapman and Hall/CRC (2011) 0.32
英語(論文から抽出)日本語訳スコア
18 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 18 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
17. Silvetti, S., Policriti, A., Bortolussi, L. 17.Silvetti,S.,Polic riti,A.,Bortolussi,L . 0.39
: An active learning approach to the falsification of black box cyber-physical systems. ブラックボックス型サイバー物理システムのファルシフィケーションへの積極的な学習アプローチ 0.63
In: Polikarpova, N., Schneider, S.A. (eds.) Integrated Formal Methods - 13th International Conference, IFM 2017, Turin, Italy, September 20-22, 2017, Proceedings. In: Polikarpova, N., Schneider, S.A. (eds.) Integrated Formal Methods - 13th International Conference, IFM 2017, Turin, Italy, September 20-22, 2017 Proceedings
訳抜け防止モード: In : Polikarpova, N., Schneider, S.A. (eds )。 第13回国際会議報告 IFM 2017 イタリアのトリノ、2017年9月20日-22日。
0.71
Lecture Notes in Computer Science, vol. コンピュータサイエンスにおける講義ノート(Vol.) 0.68
10510, pp. 3–17. 10510, pp. 3-17。 0.81
Springer (2017). スプリンガー(2017年)。 0.34
https://doi.org/10.1 007/978-3-319-668451 1, https://doi.org/10.1 007/978-3-319-66845- 1_1 https://doi.org/10.1 007/978-319-668451 1, https://doi.org/10.1 007/978-319-66845-1_ 1 0.11
18. Titsias, M. 18) Titsias, M。 0.35
: Variational learning of inducing variables in sparse gaussian processes. スパースガウス過程における変数誘導の変分学習 0.62
In: Artificial intelligence and statistics. pp. 567–574. 人工知能と統計学。 pp. 567-574。 0.66
PMLR (2009) PMLR(2009年) 0.87
19. Van der Vaart, A.W.: Asymptotic statistics, vol. 19. Van der Vaart, A.W.: Asymptotic statistics, vol。 0.47
3. Cambridge university press 3. ケンブリッジ大学出版局 0.55
(2000) 20. Younes, H.L., Simmons, R.G.: Statistical probabilistic model checking with a focus on time-bounded properties. (2000) 20. Younes, H.L., Simmons, R.G.: 時間有界な特性に着目した統計的確率モデルチェック 0.63
Information and Computation 204(9), 1368–1409 (2006) 情報計算204(9)、1368-1409(2006) 0.69
21. Zuliani, P., Platzer, A., Clarke, E.M.: Bayesian statistical model checking with application to simulink/stateflow verification. 21. zuliani, p., platzer, a., clarke, e.m.: ベイズ統計モデルチェックとsimulink/stateflow検証への応用。 0.73
In: Proceedings of the 13th ACM international conference on Hybrid systems: computation and control. 第13回ハイブリッドシステム国際会議(acm international conference on hybrid systems: computation and control)の開催。 0.75
pp. 243–252 (2010) pp. 243–252 (2010) 0.46
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
19 A Case Studies – Network Epidemics (SIR): spread of an epidemics in a population of 19 事例研究 -ネットワーク疫病(sir):人口における疫病の流行 0.52
fixed size. Here we consider the case of permanent immunisation. 固定サイズ。 ここでは永久免疫の事例について考察する。 0.66
Reactions: R1 : S + I → I + I with rate function kiXSXI , R2 : I → R with rate function krXI . 反応: r1 : s + i → i + i with rate function kixsxi , r2 : i → r with rate function krxi である。 0.79
Initial state: XS = 95, XI = 5, XR = 0 and N = 100 (∆t = 0.5). 初期状態: XS = 95, XI = 5, XR = 0, N = 100 である。
訳抜け防止モード: 初期状態: XS = 95, XI = 5, XR = 0 そして N = 100 ( t = 0.5 ) である。
0.95
In configuration (a), β varies in the interval [0.005, 0.3] and γ = 0.05; in 構成 (a) β は間隔 [0.005, 0.3] と γ = 0.05; in で変化する 0.68
(b), β = 0.12 and γ varies in [0.005, 0.2]; whereas in (b), β = 0.12, γは[0.005, 0.2]で異なる。 0.90
(c), β varies in the interval [0.005, 0.3] and γ varies in [0.005, 0.2]. (c), β は [0.005, 0.3] で, γ は [0.005, 0.2] で変化する。 0.82
– Prokaryotic Gene Expression: a more complex model that captures LacZ – Prokaryotic Gene Expression:LacZをキャプチャするより複雑なモデル 0.83
protein synthesis in E. coli. 大腸菌におけるタンパク質合成 0.76
Mass-action reactions: R1 : P Lac + RN AP → P LacRN AP with rate k1, R2 : P LacRN AP → P Lac + RN AP with rate k2, R3 : P LacRN AP → T rLacZ1 with rate k3, R4 : T rLacZ1 → RbsLacZ + P Lac + T rLacZ2 with rate k4, R5 : T rLacZ2 → RN AP with rate k5, R6 : Ribosome + RbsLacZ → RbsRibosome with rate k6, R7 : RbsRibosome → Ribosome + RbsLacZ with rate k7, R8 : RbsRibosome → T rRbsLacZ + RbsLacZ with rate k8, R9 : T rRbsLacZ → LacZ with rate k9, R10 : P LacZ → dgrLacZ with rate k10, R11 : RbsLacZ → dgrRbsLacZ with rate k11. 質量反応 r1 : p lac + rn ap → p lacrn ap レートk1, r2 : p lacrn ap → p lac + rn ap レートk2, r3 : p lacrn ap → t rlacz1 レートk3, r4 : t rlacz1 → rbslacz + p lac + t rlacz2 レートk4, r5 : t rlacz2 → rn ap レートk5, r6 : リボソーム + rbsribosome レートk6, r7 : rbsribosome → ribosome + rbslacz レートk7, r8 : rbsribosome → trbslacz レートrbslacz + rbslacz レートr10: rbslacz + rbslacz レートr10 → rbslacz レートr10 → rbslacz レートk10 : r10 → rbs10 → krbs10 → krbs11 → krbz10 → krbs11 レートr10 レートk6, r6 : r6 : rbsribosome + rbslacz → rbsribosome レートk6, r7, r7: rbsribosome + rbslacz レートrrbslacz レートk10。
訳抜け防止モード: 質量反応 r1 : p lac + rn ap → p lacrn ap 率 k1, r2 : p lacrn ap → p lac + rn ap レート k2, r3 : p lacrn ap → t rlacz1 速度k3, r4 : t rlacz1 → rbslacz + p lac + t rlacz2 レートk4。 r5 : t rlacz2 → rn ap レートk5, r6 : ribosome + rbslacz → rbsribosome レートk6, r7 : rbsribosome → ribosome + rbslacz レートk7, r8 : rbsribosome → t rrbslacz + rbslacz レートk8, r9 : t rrbslacz → lacz レート k9, r10 : p lacz → dgrlacz レート k10, r11 : rbslacz → dgrrbslacz レート k11 である。
0.60
Initial state: P Lac = 1, RN AP = 35, Ribosome = 350, P LacRN AP = T rLacZ1 = RbsLacZ = T rLacZ2 = RbsRibosome = T rRbsLacZ = LacZ = dgrLacZ = dgrRbsLacZ = 0. 初期状態: P Lac = 1, RN AP = 35, Ribosome = 350, P LacRN AP = T rLacZ1 = RbsLacZ = T rLacZ2 = RbsRibosome = T rRbsLacZ = LacZ = dgrRbsLacZ = 0
訳抜け防止モード: 初期状態 : p lac = 1, rn ap = 35 リボソーム = 350, p lacrn ap = t rlacz1 = rbslacz = t rlacz2 = rbsribosome = t rrbslacz = lacz = dgrlacz = dgrrbslacz = 0 である。
0.63
The default parametric values are k1 = 0.17, k2 = 10, k3 = k4 = 1, k5 = k9 = 0.015, k6 = 0.17, k7 = 0.45, k8 = 0.4, k10 = 0.0000642, k11 = 0.3. デフォルトのパラメトリック値は k1 = 0.17, k2 = 10, k3 = k4 = 1, k5 = k9 = 0.015, k6 = 0.17, k7 = 0.45, k8 = 0.4, k10 = 0.0000642, k11 = 0.3 である。 0.73
In configuration (d), k2 varies in [10, 100000], whereas in configuration 構成 (d),k2は[10,100000]で異なるが,構成は異なる 0.62
(e), k2 varies in [10, 10000] and k7 varies in [0.45, 4500]. (e),k2は[10,10000]で,k7は[0.45,4500]で変化する。 0.73
– Three-layer Phosphorelay: network of three layers L1, L2, L3. – 3層蛍光体:3層L1,L2,L3のネットワーク。 0.76
Each layer can be found also in phosphorylate form L1p, L2p, L3p and there is a ligand B. Initial state: L1p = L2p = L3p = L4p = B = 0, L1 = L2 = L3 = 32 and N = 5000. L1p = L2p = L3p = L4p = B = 0, L1 = L2 = L3 = 32, N = 5000 である。
訳抜け防止モード: 各層はリン酸型L1p,L2pにも見られる。 L1p = L2p = L3p = L4p = B = 0, L1 = L2 = L3 = 32、N = 5000。
0.83
Reactions: R1 : ∅ → B with rate function kp R2 : L1 + B → L1p + B with rate function k1 · L1 · B/N R3 : L1p + L2 → L1 + L2p with rate function k2 · L1p · L2/N R4 : L2p + L3 → L2 + L3p with rate function k3 · L2p · L3/N R5 : L3p → L3 with rate function k4 · L2p/N R6 : B → ∅ with rate function kd · B 反応: レート関数 kp r2 : l1 + b → l1p + b レート関数 k1 · l1 · b/n r3 : l1p + l2 → l1 + l2p レート関数 k2 · l1p · l2/n r4 : l2p + l3 → l2 + l3p レート関数 k3 · l2p · l3/n r5 : l3p → l3 とレート関数 k4 · l2p/n r6 : b → でレート関数 kd · b
訳抜け防止モード: 反応: レート関数 kp R2 : L1 を持つ R1 : s → B + B → L1p + B with rate function k1 · L1 · B / N R3 : L1p + L2 → L1 + L2p with rate function k2 · L1p · L2 / N R4 : L2p + L3 → L2 + L3p with rate function k3 · L2p · L3 / N R5 : L3p → L3 with rate function k4 · L2p / N R6 : B → B
0.77
The default parametric values are kp = 0, 1, kd = 0.05, k1 = k2 = k3 = 1 and k4 = 2. デフォルトのパラメトリック値は kp = 0, 1, kd = 0.05, k1 = k2 = k3 = 1, k4 = 2 である。 0.86
In configuration (f ), k1 varies in [0.1, 2]; in 構成 (f) において、k1 は [0.1, 2]; in で変化する 0.75
(g), kp varies in [0.01, 0.2] and kd varies in [0.005, 0.1]; in (g),kpは[0.01,0.2]で,kdは[0.005,0.1]で変化する 0.76
(h), k1, k2 and k3 all vary in the interval [0.1, 2]; in (h),k1,k2,k3はすべて[0.1,2]間隔で変化する 0.83
(i), k1, k2, k3 vary in the interval [0.1, 2] and k4 varies in [0.5, 5]; whereas in configuration (l), k1, k2, k3, k4 vary as in (i), k1, k2, k3は[0.1, 2], k4は[0.5, 5]の間隔で、k1, k2, k3, k4は[0.5, 5]で変化する。
訳抜け防止モード: (i), k1, k2, k3 は [0.1, 2 ] の間隔で変化し、k4 は [0.5, 5 ] で変化する。 k1 , k2 , k3 , k4 は
0.85
(i) and kp, kd varies as in (i)kp、kdはinのように異なる 0.70
(g). (g)。 0.37
英語(論文から抽出)日本語訳スコア
20 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 20 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
B Additional Plots Fig. 5: Satisfaction probability estimated by EP-GPs, SVI-GPs and SVI-BNNs and true satisfaction probability on 30 equispaced points from the test set on configuration (b), with 95% confidence intervals around the mean. b 追加プロット 図5: EP-GPs, SVI-GPs, SVI-BNNsで推定される満足度確率と, 設定(b)で設定した試験から得られた30点の真満足度確率は平均95%の信頼区間を有する。 0.77
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
Fig. 6: Satisfaction probability estimated by EP-GPs, SVI-GPs and SVI-BNNs and true satisfaction probability on 30 equispaced points from the test set on configuration (d), with 95% confidence intervals around the mean. 図6: EP-GPs, SVI-GPs, SVI-BNNsで推定される満足度確率と、設定(d)に設定した試験から30の等間隔点に対する真の満足度確率は平均95%の信頼区間を有する。
訳抜け防止モード: 図 6 : EP-GPsで推定される満足度確率 SVI - GPs and SVI - BNNs and true satisfaction probability on 30 equispaced points from the test set on configuration (d) 平均で95%の信頼区間を 確保しています
0.88
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
英語(論文から抽出)日本語訳スコア
Stochastic Variational Smoothed Model Checking 確率的変分平滑化モデルチェック 0.69
21 Fig. 7: Satisfaction probability estimated by EP-GPs, SVI-GPs and SVI-BNNs and true satisfaction probability on 30 equispaced points from the test set on configuration (f), with 95% confidence intervals around the mean. 21 図7: EP-GPs, SVI-GPs, SVI-BNNsで推定される満足度確率と、設定(f)に設定した試験から30の等間隔点に対する真の満足度確率は平均95%の信頼区間を有する。
訳抜け防止モード: 21 図 7 : EP-GPsで推定される満足度確率 SVI - GPs and SVI - BNNs and true satisfaction probability on 30 equispaced points from the test set on configuration (f) 平均で95%の信頼区間を 確保しています
0.66
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
Fig. 8: True satisfaction probability is compared to the satisfaction probability estimated by EP-GPs, SVI-GPs and SVI-BNNs on the test set for configuration (e). 図8:真の満足度確率は、設定のためのテストセット(e)上でEP-GP、SVI-GP、SVI-BNNによって推定される満足度確率と比較する。 0.64
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
Fig. 9: True satisfaction probability is compared to the satisfaction probability estimated by EP-GPs, SVI-GPs and SVI-BNNs on the test set for configuration (g). 図9: 設定テストセット(g)上のEP-GP、SVI-GP、SVI-BNNで推定される真満足度確率と比較する。 0.74
SVI-BNNs are evaluated on 1k posterior samples. SVI-BNNを1k後方試料で評価した。 0.52
英語(論文から抽出)日本語訳スコア
22 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, and Paolo Pulcini 22 Luca Bortolussi, Francesca Cairoli, Ginevra Carbone, Paolo Pulcini 0.40
Fig. 10: Uncertainty of true (test) and predicted (EP-GP, SVI-GP, SVI-BNN) satisfaction probabilities for models trained on configuration (d) (left) and on configuration (f ) (right). 第10図:構成(d)および構成(f)に基づいて訓練されたモデルに対する真(テスト)及び予測(EP-GP、SVI-GP、SVI-BNN)満足度確率。
訳抜け防止モード: 図10: true(テスト)の不確かさと予測(EP-GP) SVI - GP, SVI - BNN ) 構成 (d ) (左) で訓練されたモデルに対する満足度 and on configuration ( f ) ( right )
0.87
SVI-BNNs are evaluated using 1k posterior samples. SVI-BNNは1k後方サンプルを用いて評価した。 0.49
Fig. 11: Distribution of uncertainty for test parameters’ tuples of true (test) and predicted (EP-GP, SVI-GP, SVI-BNN) satisfaction probabilities. 第11図 テストパラメータの真(テスト)と予測(EP-GP, SVI-GP, SVI-BNN)のタプルの不確実性の分布 0.79
Models are trained on configurations (e) (left plot) and (g) (right plot). モデルは構成 (e) (左プロット) と (g) (右プロット) に基づいて訓練される。 0.78
SVI-BNNs are evaluated using 1k posterior samples. SVI-BNNは1k後方サンプルを用いて評価した。 0.49
Fig. 12: Distribution of uncertainty for test parameters’ tuples of true (test) and predicted (EP-GP, SVI-GP, SVI-BNN) satisfaction probabilities. 図12: テストパラメータの真(テスト)と予測(EP-GP, SVI-GP, SVI-BNN)のタプルの不確実性の分布 0.82
Models are trained on configurations (h) (left plot) and (l) (right plot). モデルは構成 (h) (左プロット) と (l) (右プロット) に基づいて訓練される。 0.78
Notice that EPGP is unfeasible in the second case study. 第2のケーススタディではEPGPが不可能であることに注意してください。 0.49
SVI-BNNs are evaluated using 1k posterior samples. SVI-BNNは1k後方サンプルを用いて評価した。 0.49
                                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。