論文の概要: Explaining Multi-stage Tasks by Learning Temporal Logic Formulas from
Suboptimal Demonstrations
- arxiv url: http://arxiv.org/abs/2006.02411v1
- Date: Wed, 3 Jun 2020 17:40:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:48:53.170316
- Title: Explaining Multi-stage Tasks by Learning Temporal Logic Formulas from
Suboptimal Demonstrations
- Title(参考訳): 時相論理公式の学習による多段階課題の解法
- Authors: Glen Chou, Necmiye Ozay, Dmitry Berenson
- Abstract要約: 本稿では,一貫した線形時間論理式(LTL)の論理構造と原子命題を学習し,実演から多段階タスクを学習する手法を提案する。
学習者は、その式を満足しながらコスト関数を最適化し、学習者にはコスト関数が不確実な場合において、成功しているが潜在的に最適でないデモンストレーションが与えられる。
提案アルゴリズムでは,デモのKKT(Karush-Kuhn-Tucker)最適条件と反例誘導ファルシフィケーション戦略を用いて,原子命題パラメータを学習する。
- 参考スコア(独自算出の注目度): 6.950510860295866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for learning multi-stage tasks from demonstrations by
learning the logical structure and atomic propositions of a consistent linear
temporal logic (LTL) formula. The learner is given successful but potentially
suboptimal demonstrations, where the demonstrator is optimizing a cost function
while satisfying the LTL formula, and the cost function is uncertain to the
learner. Our algorithm uses the Karush-Kuhn-Tucker (KKT) optimality conditions
of the demonstrations together with a counterexample-guided falsification
strategy to learn the atomic proposition parameters and logical structure of
the LTL formula, respectively. We provide theoretical guarantees on the
conservativeness of the recovered atomic proposition sets, as well as
completeness in the search for finding an LTL formula consistent with the
demonstrations. We evaluate our method on high-dimensional nonlinear systems by
learning LTL formulas explaining multi-stage tasks on 7-DOF arm and quadrotor
systems and show that it outperforms competing methods for learning LTL
formulas from positive examples.
- Abstract(参考訳): 本稿では,連続線形時相論理(ltl)の論理構造と原子命題を学習し,実演から多段階タスクを学習する手法を提案する。
学習者は、ltlの公式を満たしながらコスト関数を最適化し、学習者にとってコスト関数が不確かであるような、成功するが潜在的に最適でないデモンストレーションが与えられる。
提案アルゴリズムでは,実演におけるKKT(Karush-Kuhn-Tucker)最適条件と反例誘導のファルシフィケーション戦略を用いて,LTL公式の原子命題パラメータと論理構造をそれぞれ学習する。
我々は、回収された原子命題集合の保守性に関する理論的保証と、実演と整合したLTL公式の探索における完全性を提供する。
本研究では, 高次元非線形システムにおいて, 7-DOF アームおよび四重項系の多段階タスクを記述した LTL 式を学習し, 正の例から LTL 式を学習するための競合手法よりも優れていることを示す。
関連論文リスト
- Directed Exploration in Reinforcement Learning from Linear Temporal Logic [59.707408697394534]
リニア時間論理(LTL)は強化学習におけるタスク仕様のための強力な言語である。
合成された報酬信号は基本的に疎結合であり,探索が困難であることを示す。
我々は、仕様をさらに活用し、それに対応するリミット決定性B"uchi Automaton(LDBA)をマルコフ報酬プロセスとしてキャストすることで、よりよい探索を実現することができることを示す。
論文 参考訳(メタデータ) (2024-08-18T14:25:44Z) - On-the-fly Synthesis for LTL over Finite Traces: An Efficient Approach that Counts [20.14001970300658]
トップダウン決定論的オートマトン構築に基づく有限トレース(LTLf)上での線形時間論理のオンザフライフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-14T06:52:58Z) - TLINet: Differentiable Neural Network Temporal Logic Inference [10.36033062385604]
本稿では,STL式を学習するニューラルネットワークシンボリックフレームワークであるTLINetを紹介する。
従来の手法とは対照的に,時間論理に基づく勾配法に特化して設計された最大演算子の近似法を導入する。
我々のフレームワークは、構造だけでなく、STL公式のパラメータも学習し、演算子と様々な論理構造の柔軟な組み合わせを可能にします。
論文 参考訳(メタデータ) (2024-05-03T16:38:14Z) - Integrating Explanations in Learning LTL Specifications from Demonstrations [6.070833893646998]
本稿では,LTL(Learar Temporal Logic)の学習を支援する形式として,Large Language Models (LLMs) の最近の進歩が人間の説明の翻訳に有効かどうかを検討する。
本稿では, LLMと最適化に基づく手法を組み合わせて, 人間の説明や実演を忠実に仕様に翻訳する手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T17:09:00Z) - The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Linear Temporal Logic Modulo Theories over Finite Traces (Extended
Version) [72.38188258853155]
有限トレース(LTLf)上の線形時間論理について検討する。
命題の文字は任意の理論で解釈された一階述語式に置き換えられる。
Satisfiability Modulo Theories (LTLfMT) と呼ばれる結果の論理は半決定可能である。
論文 参考訳(メタデータ) (2022-04-28T17:57:33Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Learning Model Checking and the Kernel Trick for Signal Temporal Logic
on Stochastic Processes [1.2708506121941319]
信号時間論理(STL)の論理式に類似性関数を導入する。
対応するカーネルトリックにより、特徴抽出の複雑なプロセスを回避できます。
本研究では,STL式に対する満足度を(定量的に)予測する作業において,この結果とその利点を実証する。
論文 参考訳(メタデータ) (2022-01-24T19:36:11Z) - Formal Synthesis of Lyapunov Neural Networks [61.79595926825511]
本稿では,リアプノフ関数の自動合成法を提案する。
我々は,数値学習者と記号検証器が相互作用して,確実に正しいリアプノフニューラルネットワークを構築する,反例誘導方式を採用する。
提案手法は,Lyapunov関数を他の手法よりも高速かつ広い空間領域で合成する。
論文 参考訳(メタデータ) (2020-03-19T17:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。