論文の概要: A Formal Language Approach to Explaining RNNs
- arxiv url: http://arxiv.org/abs/2006.07292v1
- Date: Fri, 12 Jun 2020 16:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 04:26:01.434562
- Title: A Formal Language Approach to Explaining RNNs
- Title(参考訳): RNN記述のための形式言語アプローチ
- Authors: Bishwamittra Ghosh and Daniel Neider
- Abstract要約: 本稿では、線形時間論理(LTL)と呼ばれる形式記述言語を用いて、リカレントニューラルネットワーク(RNN)の意思決定を説明するためのフレームワークであるLEXRを提案する。
LEXRの説明は、RNNから決定論的有限オートマトンを抽出する最近のアルゴリズムで生成されるものよりも正確で理解しやすい。
- 参考スコア(独自算出の注目度): 6.624726878647541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents LEXR, a framework for explaining the decision making of
recurrent neural networks (RNNs) using a formal description language called
Linear Temporal Logic (LTL). LTL is the de facto standard for the specification
of temporal properties in the context of formal verification and features many
desirable properties that make the generated explanations easy for humans to
interpret: it is a descriptive language, it has a variable-free syntax, and it
can easily be translated into plain English. To generate explanations, LEXR
follows the principle of counterexample-guided inductive synthesis and combines
Valiant's probably approximately correct learning (PAC) with constraint
solving. We prove that LEXR's explanations satisfy the PAC guarantee (provided
the RNN can be described by LTL) and show empirically that these explanations
are more accurate and easier-to-understand than the ones generated by recent
algorithms that extract deterministic finite automata from RNNs.
- Abstract(参考訳): 本稿では,線形時相論理(ltl)と呼ばれる形式記述言語を用いて,リカレントニューラルネットワーク(rnns)の意思決定を説明するフレームワークlexrを提案する。
ltlは形式的検証の文脈における時間的特性の仕様のデファクトスタンダードであり、人間が生成した説明を解釈しやすくするための多くの望ましい特性を特徴としている。
説明を得るために、LEXRは反例誘導帰納的合成の原理に従い、ヴァリアントのおそらくほぼ正しい学習(PAC)と制約解を組み合わせている。
我々は, LEXR の説明が PAC の保証を満たすことを証明し, これらの説明が RNN から決定論的有限オートマトンを抽出するアルゴリズムにより生成されるものよりも正確で理解しやすいことを示す。
関連論文リスト
- Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and
Improving LLMs [95.41575344721691]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Large Language Models As Faithful Explainers [67.38301892818778]
大規模言語モデル(LLM)は近年,その豊富な内部知識と推論能力を活用することで,複雑なタスクに対処する技術に長けている。
我々は、LLMの自然言語形式で提供される説明の忠実性を改善するために、生成的説明フレームワークであるxLLMを導入する。
3つのNLUデータセットで行った実験により、xLLMは生成された説明の忠実性を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Recurrent Neural Language Models as Probabilistic Finite-state Automata [66.23172872811594]
RNN LMが表現できる確率分布のクラスについて検討する。
単純なRNNは確率的有限状態オートマトンの部分クラスと同値であることを示す。
これらの結果は、RNN LMが表現できる分布のクラスを特徴付けるための第一歩を示す。
論文 参考訳(メタデータ) (2023-10-08T13:36:05Z) - Advancing Regular Language Reasoning in Linear Recurrent Neural Networks [61.305218287797025]
線形リカレントニューラルネットワークがトレーニングシーケンスに隠された規則を学習できるかを検討する。
ブロック対角および入力依存遷移行列を備えた新しいLRNNを提案する。
実験結果から,提案モデルが正規言語タスクで長さ外挿を行うことができる唯一のLRNNであることが示唆された。
論文 参考訳(メタデータ) (2023-09-14T03:36:01Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Extending Logic Explained Networks to Text Classification [5.289706151390118]
我々はLENpを提案し、入力語を摂動することで局所的な説明を改善し、テキスト分類でそれをテストする。
その結果, (i) LENp は LIME よりも感度, 忠実度, (ii) 論理的説明は LIME の機能評価よりも有用で, ユーザフレンドリであることがわかった。
論文 参考訳(メタデータ) (2022-11-04T16:12:03Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。