論文の概要: Learning Interpretable Models in the Property Specification Language
- arxiv url: http://arxiv.org/abs/2002.03668v1
- Date: Mon, 10 Feb 2020 11:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:16:56.748068
- Title: Learning Interpretable Models in the Property Specification Language
- Title(参考訳): プロパティ仕様言語における解釈可能なモデル学習
- Authors: Rajarshi Roy, Dana Fisman and Daniel Neider
- Abstract要約: IEEE標準時相論理PSLにおける公式の学習アルゴリズムを開発した。
私たちの研究は、n番目の点ごとに起こる事象のような多くの自然の性質が、言葉で表現できないという事実に動機づけられている。
- 参考スコア(独自算出の注目度): 6.875312133832079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of learning human-interpretable descriptions of a
complex system from a finite set of positive and negative examples of its
behavior. In contrast to most of the recent work in this area, which focuses on
descriptions expressed in Linear Temporal Logic (LTL), we develop a learning
algorithm for formulas in the IEEE standard temporal logic PSL (Property
Specification Language). Our work is motivated by the fact that many natural
properties, such as an event happening at every n-th point in time, cannot be
expressed in LTL, whereas it is easy to express such properties in PSL.
Moreover, formulas in PSL can be more succinct and easier to interpret (due to
the use of regular expressions in PSL formulas) than formulas in LTL.
Our learning algorithm builds on top of an existing algorithm for learning
LTL formulas. Roughly speaking, our algorithm reduces the learning task to a
constraint satisfaction problem in propositional logic and then uses a SAT
solver to search for a solution in an incremental fashion. We have implemented
our algorithm and performed a comparative study between the proposed method and
the existing LTL learning algorithm. Our results illustrate the effectiveness
of the proposed approach to provide succinct human-interpretable descriptions
from examples.
- Abstract(参考訳): 本稿では,複雑なシステムの人間解釈可能な記述を,その振る舞いの有限個の正・負の例から学ぶ問題に対処する。
線形時相論理(ltl)で表現される記述に焦点を当てたこの分野の最近の研究の多くとは対照的に、ieee標準時相論理psl (property specification language) における公式の学習アルゴリズムを開発した。
我々の研究の動機は、例えば n 番目の点ごとに発生する事象のような多くの自然特性が LTL では表現できないのに対して、PSL ではそのような性質は容易に表現できるという事実にある。
さらに、psl の式は ltl の式よりも簡潔で容易に解釈できる(psl の式で正規表現を使用することにより)。
我々の学習アルゴリズムはLTL公式を学習するための既存のアルゴリズムの上に構築されている。
大まかに言えば、我々のアルゴリズムは学習課題を命題論理の制約満足度問題に還元し、SATソルバを用いて漸進的に解を求める。
本アルゴリズムを実装し,提案手法と既存のltl学習アルゴリズムとの比較検討を行った。
提案手法の有効性を考察し, 実例による簡潔な人間解釈記述を提案する。
関連論文リスト
- DeepLTL: Learning to Efficiently Satisfy Complex LTL Specifications [59.01527054553122]
リニア時間論理(LTL)は、強化学習(RL)における複雑で時間的に拡張されたタスクを特定する強力なフォーマリズムとして最近採用されている。
既存のアプローチはいくつかの欠点に悩まされており、それらは有限水平フラグメントにのみ適用でき、最適以下の解に制限され、安全制約を適切に扱えない。
本研究では,これらの問題に対処するための新しい学習手法を提案する。
提案手法は, 自動仕様のセマンティクスを明示的に表現したB"uchiaの構造を利用して, 所望の式を満たすための真理代入の順序を条件としたポリシーを学習する。
論文 参考訳(メタデータ) (2024-10-06T21:30:38Z) - On the Design and Analysis of LLM-Based Algorithms [74.7126776018275]
大規模言語モデル(LLM)はアルゴリズムのサブルーチンとして使用される。
LLMは素晴らしい経験的成功を収めた。
提案フレームワークは,LLMアルゴリズムの進歩を約束する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - TLINet: Differentiable Neural Network Temporal Logic Inference [10.36033062385604]
本稿では,STL式を学習するニューラルネットワークシンボリックフレームワークであるTLINetを紹介する。
従来の手法とは対照的に,時間論理に基づく勾配法に特化して設計された最大演算子の近似法を導入する。
我々のフレームワークは、構造だけでなく、STL公式のパラメータも学習し、演算子と様々な論理構造の柔軟な組み合わせを可能にします。
論文 参考訳(メタデータ) (2024-05-03T16:38:14Z) - Provably Efficient Representation Learning with Tractable Planning in
Low-Rank POMDP [81.00800920928621]
部分的に観測可能なマルコフ決定過程(POMDP)における表現学習の研究
まず,不確実性(OFU)に直面した最大推定(MLE)と楽観性を組み合わせた復調性POMDPのアルゴリズムを提案する。
次に、このアルゴリズムをより広範な$gamma$-observable POMDPのクラスで機能させる方法を示す。
論文 参考訳(メタデータ) (2023-06-21T16:04:03Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Learning Interpretable Temporal Properties from Positive Examples Only [27.929058359327186]
我々は,人間の解釈可能なモデルを用いて,ブラックボックスシステムの時間的挙動を説明する問題を考察する。
我々は決定論的有限オートマトン(DFAs)と線形時間論理(LTL)の基本的な解釈可能なモデルに依存している。
私たちのモチベーションは、特にブラックボックスシステムから否定的な例を観察することは一般的に困難であるということです。
論文 参考訳(メタデータ) (2022-09-06T17:04:09Z) - Exploring Viable Algorithmic Options for Learning from Demonstration
(LfD): A Parameterized Complexity Approach [0.0]
本稿では,パラメータ化複雑性解析を用いて,アルゴリズムの選択肢を体系的に探索する方法を示す。
環境、実演、ポリシーに対する多くの(しばしば同時に)制限に対して、我々の問題は、一般的にも、あるいは相対的に、効率的に解決できないことを示す。
論文 参考訳(メタデータ) (2022-05-10T15:54:06Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Scalable Anytime Algorithms for Learning Formulas in Linear Temporal
Logic [2.631744051718347]
トレースを分類する公式を学習する際の問題点を考察する。
既存の解には2つの制限がある: それらは小さな公式を超えてスケールせず、結果を返すことなく計算資源を消費する。
我々は,両問題に対処する新しいアルゴリズムを導入する。我々のアルゴリズムは,従来よりも桁違いに大きい式を構築でき,いつでも可能である。
論文 参考訳(メタデータ) (2021-10-13T13:57:31Z) - Learning Linear Temporal Properties from Noisy Data: A MaxSAT Approach [22.46055650237819]
雑音の存在下でも簡潔な公式を推測するための2つのアルゴリズムを考案する。
我々の第一のアルゴリズムは、推論問題を満足できる問題に還元することで最小の式を推論する。
第2の学習アルゴリズムは、決定木学習アルゴリズムに基づく公式上の決定木を導出する第1のアルゴリズムに依存している。
論文 参考訳(メタデータ) (2021-04-30T16:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。