論文の概要: Learning Interpretable Temporal Properties from Positive Examples Only
- arxiv url: http://arxiv.org/abs/2209.02650v1
- Date: Tue, 6 Sep 2022 17:04:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:49:54.580773
- Title: Learning Interpretable Temporal Properties from Positive Examples Only
- Title(参考訳): 正の例のみによる解釈可能な時間特性の学習
- Authors: Rajarshi Roy, Jean-Rapha\"el Gaglione, Nasim Baharisangari, Daniel
Neider, Zhe Xu, Ufuk Topcu
- Abstract要約: 我々は,人間の解釈可能なモデルを用いて,ブラックボックスシステムの時間的挙動を説明する問題を考察する。
我々は決定論的有限オートマトン(DFAs)と線形時間論理(LTL)の基本的な解釈可能なモデルに依存している。
私たちのモチベーションは、特にブラックボックスシステムから否定的な例を観察することは一般的に困難であるということです。
- 参考スコア(独自算出の注目度): 27.929058359327186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of explaining the temporal behavior of black-box
systems using human-interpretable models. To this end, based on recent research
trends, we rely on the fundamental yet interpretable models of deterministic
finite automata (DFAs) and linear temporal logic (LTL) formulas. In contrast to
most existing works for learning DFAs and LTL formulas, we rely on only
positive examples. Our motivation is that negative examples are generally
difficult to observe, in particular, from black-box systems. To learn
meaningful models from positive examples only, we design algorithms that rely
on conciseness and language minimality of models as regularizers. To this end,
our algorithms adopt two approaches: a symbolic and a counterexample-guided
one. While the symbolic approach exploits an efficient encoding of language
minimality as a constraint satisfaction problem, the counterexample-guided one
relies on generating suitable negative examples to prune the search. Both the
approaches provide us with effective algorithms with theoretical guarantees on
the learned models. To assess the effectiveness of our algorithms, we evaluate
all of them on synthetic data.
- Abstract(参考訳): 人間の解釈可能なモデルを用いてブラックボックスシステムの時間的挙動を説明する問題を考える。
この目的のために、最近の研究動向に基づき、決定論的有限オートマトン(dfas)と線形時相論理(ltl)の基本的かつ解釈可能なモデルに依存する。
DFAやTL式を学習するための既存のほとんどの研究とは対照的に、正の例にのみ依存する。
当社のモチベーションは、否定的な例が一般的に、特にブラックボックスシステムから観察するのが難しいことです。
ポジティブな例のみから有意義なモデルを学ぶために、モデルの簡潔さと言語の最小性に依存するアルゴリズムを正規化子として設計する。
この目的のために、我々のアルゴリズムは2つのアプローチを採用する:シンボリックと反例誘導型である。
シンボリックアプローチは、制約満足度問題として言語極小の効率的な符号化を利用するが、反例誘導は、探索を誘発する適切な負の例を生成することに依存する。
どちらのアプローチも、学習したモデルに理論的保証のある効果的なアルゴリズムを提供する。
アルゴリズムの有効性を評価するために,これらすべてを合成データで評価する。
関連論文リスト
- RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Exploring Viable Algorithmic Options for Learning from Demonstration
(LfD): A Parameterized Complexity Approach [0.0]
本稿では,パラメータ化複雑性解析を用いて,アルゴリズムの選択肢を体系的に探索する方法を示す。
環境、実演、ポリシーに対する多くの(しばしば同時に)制限に対して、我々の問題は、一般的にも、あるいは相対的に、効率的に解決できないことを示す。
論文 参考訳(メタデータ) (2022-05-10T15:54:06Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Label-Descriptive Patterns and their Application to Characterizing
Classification Errors [31.272875287136426]
最先端のディープラーニング手法は多くのタスクで人間のようなパフォーマンスを達成するが、それでもエラーを犯す。
これらのエラーを容易に解釈可能な言葉で特徴付けることは、モデルが体系的なエラーを起こす傾向にあるかどうかの洞察を与えるだけでなく、モデルを実行し改善する方法を与える。
本稿では,予測の正しさに応じて分割された入力データを簡潔に記述するパターンの小さなセットをマイニングすることにより,任意の分類器に対して,任意の分類を行うことができる手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T19:42:21Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - PermuteAttack: Counterfactual Explanation of Machine Learning Credit
Scorecards [0.0]
本稿では、金融における小売クレジットスコアリングに使用される機械学習(ML)モデルの検証と説明のための新しい方向性と方法論について述べる。
提案するフレームワークは人工知能(AI)のセキュリティと敵MLの分野からモチベーションを引き出す。
論文 参考訳(メタデータ) (2020-08-24T00:05:13Z) - Sparse Methods for Automatic Relevance Determination [0.0]
まず、自動妥当性決定(ARD)について検討し、スパースモデルを実現するために、追加の正規化やしきい値設定の必要性を解析的に実証する。
次に、正規化ベースとしきい値ベースという2つの手法のクラスについて論じる。
論文 参考訳(メタデータ) (2020-05-18T14:08:49Z) - Learning Interpretable Models in the Property Specification Language [6.875312133832079]
IEEE標準時相論理PSLにおける公式の学習アルゴリズムを開発した。
私たちの研究は、n番目の点ごとに起こる事象のような多くの自然の性質が、言葉で表現できないという事実に動機づけられている。
論文 参考訳(メタデータ) (2020-02-10T11:42:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。