論文の概要: Formal Proofs as Structured Explanations: Proposing Several Tasks on
Explainable Natural Language Inference
- arxiv url: http://arxiv.org/abs/2311.08637v1
- Date: Wed, 15 Nov 2023 01:24:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 17:54:40.458730
- Title: Formal Proofs as Structured Explanations: Proposing Several Tasks on
Explainable Natural Language Inference
- Title(参考訳): 構造的説明としての形式的証明:説明可能な自然言語推論のいくつかのタスクの提案
- Authors: Lasha Abzianidze
- Abstract要約: 構造化された説明を用いてNLIタスクを定義する方法を示す。
提案したタスクは、説明の粒度で定義される難易度に応じて順序付けすることができる。
- 参考スコア(独自算出の注目度): 0.16317061277457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this position paper, we propose a way of exploiting formal proofs to put
forward several explainable natural language inference (NLI) tasks. The formal
proofs will be produced by a reliable and high-performing logic-based NLI
system. Taking advantage of the in-depth information available in the generated
formal proofs, we show how it can be used to define NLI tasks with structured
explanations. The proposed tasks can be ordered according to difficulty defined
in terms of the granularity of explanations. We argue that the tasks will
suffer with substantially fewer shortcomings than the existing explainable NLI
tasks (or datasets).
- Abstract(参考訳): 本稿では,いくつかの説明可能な自然言語推論(nli)タスクを行うための形式的証明の活用法を提案する。
形式的証明は、信頼性が高く高性能な論理ベースのNLIシステムによって作成される。
生成した形式的証明で得られる詳細な情報を利用して,nliタスクを構造化された説明文で定義する方法を示す。
提案するタスクは,説明の粒度の観点から定義された難易度に応じて順序付けできる。
我々は、既存の説明可能なNLIタスク(またはデータセット)よりも、タスクの欠点が大幅に少なくなることを論じる。
関連論文リスト
- Dialogue-based Explanations for Logical Reasoning using Structured Argumentation [0.06138671548064355]
我々は、最先端技術の構造的弱点を特定し、これらの問題に対処するための一般的な議論に基づくアプローチを提案する。
我々の研究は、問合せ応答を計算し、説明するための弁証法として対話モデルを提供する。
これにより、既存の説明形式よりも表現的かつ直感的な弁証的証明木を説明として構築することができる。
論文 参考訳(メタデータ) (2025-02-16T22:26:18Z) - Lean-STaR: Learning to Interleave Thinking and Proving [53.923617816215774]
証明の各ステップに先立って,非公式な思考を生成するために,言語モデルをトレーニングするフレームワークであるLean-STaRを紹介します。
Lean-STaRは、Lean定理証明環境内のminiF2F-testベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T01:43:07Z) - Counterfactual and Semifactual Explanations in Abstract Argumentation: Formal Foundations, Complexity and Computation [19.799266797193344]
議論ベースのシステムは、意思決定プロセスをサポートしながら説明責任を欠くことが多い。
対実的・半実的な説明は解釈可能性のテクニックである。
本稿では,制約の弱いArgumentation Frameworkにおいて,逆ファクトおよび半ファクトのクエリを符号化可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T07:27:27Z) - Towards Generalizable and Faithful Logic Reasoning over Natural Language via Resolution Refutation [24.584926992534346]
本稿では,GFaiR(Generalizable and Faithful Reasoner)という新しいフレームワークを提案する。
解法の難解化は、推論規則を拡張し、矛盾による証明の原理を採用することによって、全ての一階論理推論問題を解く能力を持つ。
我々のシステムは、単純なシナリオでパフォーマンスを維持しながら、複雑なシナリオで最先端のパフォーマンスを達成することで、これまでの作業より優れています。
論文 参考訳(メタデータ) (2024-04-02T06:28:44Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Stable Normative Explanations: From Argumentation to Deontic Logic [1.3272510644778104]
本稿では,安定な説明概念を形式的議論の文脈でどのように表現できるかを検討する。
本稿では、この説明概念を特徴付けることができるデオン論理の議論近傍構造から構築する方法を示す。
論文 参考訳(メタデータ) (2023-07-11T10:26:05Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。