論文の概要: Learning Finite Linear Temporal Logic Specifications with a Specialized
Neural Operator
- arxiv url: http://arxiv.org/abs/2111.04147v1
- Date: Sun, 7 Nov 2021 18:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 16:43:25.054048
- Title: Learning Finite Linear Temporal Logic Specifications with a Specialized
Neural Operator
- Title(参考訳): 特殊ニューラルネットワークを用いた有限線形時相論理仕様の学習
- Authors: Homer Walke, Daniel Ritter, Carl Trimbach, Michael Littman
- Abstract要約: 本稿では,システム動作のラベル付きトレースから,コンパクトな$mathsfLTL_f$式を学習する問題に対処する。
提案手法は, 時間演算子$mathsfLTL_f$をサブスクライブする特殊リカレントフィルタを含む。
ランダムに生成された$mathsfLTL_f$式の実験は、既存の手法よりも大きな公式サイズにスケールしたNeural$mathsfLTL_f$を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finite linear temporal logic ($\mathsf{LTL}_f$) is a powerful formal
representation for modeling temporal sequences. We address the problem of
learning a compact $\mathsf{LTL}_f$ formula from labeled traces of system
behavior. We propose a novel neural network operator and evaluate the resulting
architecture, Neural$\mathsf{LTL}_f$. Our approach includes a specialized
recurrent filter, designed to subsume $\mathsf{LTL}_f$ temporal operators, to
learn a highly accurate classifier for traces. Then, it discretizes the
activations and extracts the truth table represented by the learned weights.
This truth table is converted to symbolic form and returned as the learned
formula. Experiments on randomly generated $\mathsf{LTL}_f$ formulas show
Neural$\mathsf{LTL}_f$ scales to larger formula sizes than existing approaches
and maintains high accuracy even in the presence of noise.
- Abstract(参考訳): 有限線形時相論理(英: finite linear temporal logic)は、時相列をモデル化するための強力な形式表現である。
システム動作のラベル付きトレースから,コンパクトな$\mathsf{LTL}_f$式を学習する問題に対処する。
本稿では,新しいニューラルネットワーク演算子を提案し,その結果のアーキテクチャであるNeural$\mathsf{LTL}_f$を評価する。
我々の手法は、トレースの高精度な分類法を学ぶために、$\mathsf{LTL}_f$時間演算子をサブスクライブするために設計された特殊リカレントフィルタを含む。
そして、活性化を識別し、学習した重みで表される真理表を抽出する。
この真理表は記号形式に変換され、学習式として返される。
ランダムに生成された$\mathsf{LTL}_f$式の実験では、ニューラル$\mathsf{LTL}_f$スケールが既存の手法よりも大きく、ノイズの存在下でも高い精度を維持している。
関連論文リスト
- Learning sum of diverse features: computational hardness and efficient gradient-based training for ridge combinations [40.77319247558742]
目的関数 $f_*:mathbbRdtomathbbR$ を加法構造で学習する際の計算複雑性について検討する。
2層ニューラルネットワークの勾配学習により,$f_*$の大規模なサブセットを効率的に学習できることを実証した。
論文 参考訳(メタデータ) (2024-06-17T17:59:17Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - A Unified Scheme of ResNet and Softmax [8.556540804058203]
回帰問題を理論的に解析する: $| langle exp(Ax) + A x, bf 1_n rangle-1 ( exp(Ax) + Ax )
この回帰問題は、ソフトマックス回帰とResNetを組み合わせた統一的なスキームである。
論文 参考訳(メタデータ) (2023-09-23T21:41:01Z) - LU-Net: Invertible Neural Networks Based on Matrix Factorization [1.2891210250935146]
LU-Netは、可逆ニューラルネットワーク(INN)のためのシンプルで高速なアーキテクチャである
イントレピッドニューラルネットワークは、最大極大原理に従って訓練することができる。
数値実験では,複数の学術データセット上でLU-netアーキテクチャを生成モデルとして検証した。
論文 参考訳(メタデータ) (2023-02-21T08:52:36Z) - Constrained Training of Neural Networks via Theorem Proving [0.2578242050187029]
有限トレース上の線形時間論理の深い埋め込み(LTL$_f$)を定式化する。
次に、損失関数 $mathcalL$ を形式化し、その関数 $dmathcalL$ に微分可能であることを正式に証明する。
本研究では,動的運動のための既存のディープラーニングフレームワークのトレーニングに使用する場合,共通の運動仕様パターンに対する予測結果が得られたことを示す。
論文 参考訳(メタデータ) (2022-07-08T13:13:51Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Efficient Algorithms for Learning Depth-2 Neural Networks with General
ReLU Activations [27.244958998196623]
一般のReLUアクティベーションを用いた未知の深度2フィードフォワードニューラルネットワークを学習するための時間とサンプル効率のアルゴリズムを提案する。
特に、f(x) = amathsfTsigma(WmathsfTx+b)$, ここで$x$はガウス分布から引き出され、$sigma(t) := max(t,0)$はReLU活性化である。
論文 参考訳(メタデータ) (2021-07-21T17:06:03Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - Learning nonlinear dynamical systems from a single trajectory [102.60042167341956]
我々は、$x_t+1=sigma(Thetastarx_t)+varepsilon_t$という形の非線形力学系を学ぶアルゴリズムを導入する。
最適なサンプル複雑性と線形ランニング時間を持つ単一軌道から重み行列$Thetastar$を復元するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-30T10:42:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。