論文の概要: Formal Proofs as Structured Explanations: Proposing Several Tasks on Explainable Natural Language Inference
- arxiv url: http://arxiv.org/abs/2311.08637v2
- Date: Thu, 06 Feb 2025 21:50:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:53:56.262568
- Title: Formal Proofs as Structured Explanations: Proposing Several Tasks on Explainable Natural Language Inference
- Title(参考訳): 構造的説明としての形式的証明:説明可能な自然言語推論に関するいくつかの課題を提示する
- Authors: Lasha Abzianidze,
- Abstract要約: 自然言語推論の基礎となる推論過程をモデル化できる推論フレームワークを提案する。
このフレームワークは、形式論理におけるよく研究された証明システムであるセマンティック・テーブルー法に基づいている。
本稿では、自然言語推論タスクを構造化された説明で定義する方法について述べる。
- 参考スコア(独自算出の注目度): 0.16317061277457
- License:
- Abstract: In this position paper, we propose a reasoning framework that can model the reasoning process underlying natural language inferences. The framework is based on the semantic tableau method, a well-studied proof system in formal logic. Like the semantic tableau, the framework is driven by refutation -- something is proved if and only if its counterexample was not refuted. Despite being rooted in formal logic, the framework shares similarities with the mental models, a theory on the psychology of reasoning. We will show how the reasoning framework can facilitate the collection of comprehensive and structured explanations for existing naturalistic inference problems. To make the suggestion more concrete, we propose a method of semi-automatically obtaining structured explanations from the formal proofs of a reliable and high-performing logic-based inference system. Taking advantage of the in-depth information available in the generated formal proofs, we show how it can be used to define natural language reasoning tasks with structured explanations. The proposed tasks can be ordered according to difficulty defined in terms of the granularity of explanations. We argue that the tasks that contain a natural sketch of the proofs will suffer from substantially fewer shortcomings than the existing explainable reasoning tasks (or datasets).
- Abstract(参考訳): 本稿では,自然言語推論に基づく推論過程をモデル化可能な推論フレームワークを提案する。
このフレームワークは、形式論理におけるよく研究された証明システムであるセマンティック・テーブルー法に基づいている。
セマンティック・テーブルーと同様に、フレームワークは反響によって駆動される -- 反響が反響しなかった場合に限り、何かが証明される。
形式論理に根ざしているにもかかわらず、この枠組みは推論の心理学の理論である精神モデルと類似している。
本稿では,既存の自然主義推論問題に対する包括的かつ構造化された説明の収集を,推論フレームワークがいかに促進するかを示す。
提案手法をより具体的にするために,信頼性の高い高パフォーマンスな論理ベースの推論システムの形式的証明から,構造化された説明を半自動で得る手法を提案する。
生成した形式証明で利用できる詳細な情報を利用して、構造化された説明を用いて自然言語推論タスクを定義する方法を示す。
提案したタスクは、説明の粒度で定義される難易度に応じて順序付けすることができる。
証明の自然なスケッチを含むタスクは、既存の説明可能な推論タスク(またはデータセット)よりもはるかに少ない欠点に悩まされる。
関連論文リスト
- Dialogue-based Explanations for Logical Reasoning using Structured Argumentation [0.06138671548064355]
我々は、最先端技術の構造的弱点を特定し、これらの問題に対処するための一般的な議論に基づくアプローチを提案する。
我々の研究は、問合せ応答を計算し、説明するための弁証法として対話モデルを提供する。
これにより、既存の説明形式よりも表現的かつ直感的な弁証的証明木を説明として構築することができる。
論文 参考訳(メタデータ) (2025-02-16T22:26:18Z) - Lean-STaR: Learning to Interleave Thinking and Proving [53.923617816215774]
証明の各ステップに先立って,非公式な思考を生成するために,言語モデルをトレーニングするフレームワークであるLean-STaRを紹介します。
Lean-STaRは、Lean定理証明環境内のminiF2F-testベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T01:43:07Z) - Counterfactual and Semifactual Explanations in Abstract Argumentation: Formal Foundations, Complexity and Computation [19.799266797193344]
議論ベースのシステムは、意思決定プロセスをサポートしながら説明責任を欠くことが多い。
対実的・半実的な説明は解釈可能性のテクニックである。
本稿では,制約の弱いArgumentation Frameworkにおいて,逆ファクトおよび半ファクトのクエリを符号化可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T07:27:27Z) - Towards Generalizable and Faithful Logic Reasoning over Natural Language via Resolution Refutation [24.584926992534346]
本稿では,GFaiR(Generalizable and Faithful Reasoner)という新しいフレームワークを提案する。
解法の難解化は、推論規則を拡張し、矛盾による証明の原理を採用することによって、全ての一階論理推論問題を解く能力を持つ。
我々のシステムは、単純なシナリオでパフォーマンスを維持しながら、複雑なシナリオで最先端のパフォーマンスを達成することで、これまでの作業より優れています。
論文 参考訳(メタデータ) (2024-04-02T06:28:44Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Stable Normative Explanations: From Argumentation to Deontic Logic [1.3272510644778104]
本稿では,安定な説明概念を形式的議論の文脈でどのように表現できるかを検討する。
本稿では、この説明概念を特徴付けることができるデオン論理の議論近傍構造から構築する方法を示す。
論文 参考訳(メタデータ) (2023-07-11T10:26:05Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。