論文の概要: Learning Model Checking and the Kernel Trick for Signal Temporal Logic
on Stochastic Processes
- arxiv url: http://arxiv.org/abs/2201.09928v1
- Date: Mon, 24 Jan 2022 19:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 16:09:17.988025
- Title: Learning Model Checking and the Kernel Trick for Signal Temporal Logic
on Stochastic Processes
- Title(参考訳): 確率過程における信号時間論理の学習モデルチェックとカーネルトリック
- Authors: Luca Bortolussi, Giuseppe Maria Gallo, Jan K\v{r}et\'insk\'y, Laura
Nenzi
- Abstract要約: 信号時間論理(STL)の論理式に類似性関数を導入する。
対応するカーネルトリックにより、特徴抽出の複雑なプロセスを回避できます。
本研究では,STL式に対する満足度を(定量的に)予測する作業において,この結果とその利点を実証する。
- 参考スコア(独自算出の注目度): 1.2708506121941319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a similarity function on formulae of signal temporal logic
(STL). It comes in the form of a kernel function, well known in machine
learning as a conceptually and computationally efficient tool. The
corresponding kernel trick allows us to circumvent the complicated process of
feature extraction, i.e. the (typically manual) effort to identify the decisive
properties of formulae so that learning can be applied. We demonstrate this
consequence and its advantages on the task of predicting (quantitative)
satisfaction of STL formulae on stochastic processes: Using our kernel and the
kernel trick, we learn (i) computationally efficiently (ii) a practically
precise predictor of satisfaction, (iii) avoiding the difficult task of finding
a way to explicitly turn formulae into vectors of numbers in a sensible way. We
back the high precision we have achieved in the experiments by a theoretically
sound PAC guarantee, ensuring our procedure efficiently delivers a
close-to-optimal predictor.
- Abstract(参考訳): 信号時間論理(STL)の論理式に類似性関数を導入する。
これはカーネル関数の形で、概念的にも計算的にも効率的なツールとして機械学習でよく知られている。
対応するカーネルトリックは、特徴抽出の複雑なプロセスを回避し、すなわち(典型的には手動)フォーミュラの決定的な性質を識別し、学習を適用できるようにする。
我々は、この結果とその利点を、確率過程におけるSTL公式の(定量的な)満足度を予測するタスクに示し、カーネルとカーネルのトリックを用いて学習する。
(i)計算効率が高い
(二)満足度を正確に予測すること。
(iii)明快な方法で公式を整数のベクトルに明示的に変換する方法を見つけることの難しさを避けること。
実験で達成した高精度を理論的に健全なpac保証でバックアップし,近接最適予測器を効率的に提供する。
関連論文リスト
- Towards Gaussian Process for operator learning: an uncertainty aware resolution independent operator learning algorithm for computational mechanics [8.528817025440746]
本稿では、パラメトリック微分方程式を解くための新しいガウス過程(GP)に基づくニューラル演算子を提案する。
ニューラル演算子を用いて学習した潜在空間でGPカーネルを定式化するニューラル演算子埋め込みカーネル'を提案する。
本研究は, 不確実性評価におけるロバスト性を維持しつつ, 複雑なPDEを解く上で, この枠組みの有効性を強調した。
論文 参考訳(メタデータ) (2024-09-17T08:12:38Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Provably Efficient Representation Learning with Tractable Planning in
Low-Rank POMDP [81.00800920928621]
部分的に観測可能なマルコフ決定過程(POMDP)における表現学習の研究
まず,不確実性(OFU)に直面した最大推定(MLE)と楽観性を組み合わせた復調性POMDPのアルゴリズムを提案する。
次に、このアルゴリズムをより広範な$gamma$-observable POMDPのクラスで機能させる方法を示す。
論文 参考訳(メタデータ) (2023-06-21T16:04:03Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Structural Kernel Search via Bayesian Optimization and Symbolical
Optimal Transport [5.1672267755831705]
ガウスのプロセスでは、カーネルの選択は重要なタスクであり、しばしば専門家が手動で行う。
本稿では,カーネル空間を包含する新しい効率的な探索法を提案する。
論文 参考訳(メタデータ) (2022-10-21T09:30:21Z) - The Fast Kernel Transform [21.001203328543006]
本稿では,FKT(Fast Kernel Transform:高速カーネル変換)を提案する。
FKT はガウス、マテルン、ラショナル四次共分散関数や物理的に動機付けられたグリーン関数など、幅広い種類のカーネルに容易に適用できる。
本稿では、時間と精度のベンチマークを提供することによりFKTの有効性と汎用性を説明し、それを近隣埋め込み(t-SNE)とガウス過程を大規模実世界のデータセットに拡張する。
論文 参考訳(メタデータ) (2021-06-08T16:15:47Z) - Sparse Spectrum Warped Input Measures for Nonstationary Kernel Learning [29.221457769884648]
本研究では,非定常カーネルを学習するための明示的,入力に依存した,計測値のワーピングの一般的な形式を提案する。
提案した学習アルゴリズムは、標準定常カーネルの滑らかさを制御する条件付きガウス測度として入力をワープする。
我々は,小・大規模データ体制の学習問題において,ワーピング関数のパラメータ数に顕著な効率性を示す。
論文 参考訳(メタデータ) (2020-10-09T01:10:08Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。