論文の概要: Explaining Answers with Entailment Trees
- arxiv url: http://arxiv.org/abs/2104.08661v1
- Date: Sat, 17 Apr 2021 23:13:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:43:39.950208
- Title: Explaining Answers with Entailment Trees
- Title(参考訳): 補足木による回答の解説
- Authors: Bhavana Dalvi, Peter Jansen, Oyvind Tafjord, Zhengnan Xie, Hannah
Smith, Leighanna Pipatanangkura, Peter Clark
- Abstract要約: 我々は,証拠が回答にどのようにつながるのかを体系的に示すことで,回答を説明することを目的とする。
私たちのアプローチは、エンテイメントツリー、すなわち、中間的な結論を通じて知られている事実から最終的な答えまで、エンテイメントステップのツリーの形で説明を生成することです。
このスキルでモデルをトレーニングするために、マルチステップのエンテイメントツリーを含む最初のデータセットであるEnTAILMENTBANKを作成しました。
- 参考スコア(独自算出の注目度): 16.555369850015055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our goal, in the context of open-domain textual question-answering (QA), is
to explain answers by not just listing supporting textual evidence
("rationales"), but also showing how such evidence leads to the answer in a
systematic way. If this could be done, new opportunities for understanding and
debugging the system's reasoning would become possible. Our approach is to
generate explanations in the form of entailment trees, namely a tree of
entailment steps from facts that are known, through intermediate conclusions,
to the final answer. To train a model with this skill, we created
ENTAILMENTBANK, the first dataset to contain multistep entailment trees. At
each node in the tree (typically) two or more facts compose together to produce
a new conclusion. Given a hypothesis (question + answer), we define three
increasingly difficult explanation tasks: generate a valid entailment tree
given (a) all relevant sentences (the leaves of the gold entailment tree), (b)
all relevant and some irrelevant sentences, or (c) a corpus. We show that a
strong language model only partially solves these tasks, and identify several
new directions to improve performance. This work is significant as it provides
a new type of dataset (multistep entailments) and baselines, offering a new
avenue for the community to generate richer, more systematic explanations.
- Abstract(参考訳): 我々のゴールは、オープンドメインのテキスト質問回答(QA)の文脈において、単にテキスト証拠("rationales")をリストアップするだけでなく、そのような証拠がどのようにしてその答えを体系的に導くかを示すことで、答えを説明することである。
これが実現できれば、システムの推論を理解してデバッグする新たな機会が生まれるでしょう。
我々のアプローチは、エンテーメント・ツリー(すなわち、中間的な結論を通じて知られている事実から最終回答まで、エンテーメント・ステップのツリー)の形で説明を生成することである。
このスキルでモデルをトレーニングするために、マルチステップのエンターテイメントツリーを含む最初のデータセットであるENTAILMENTBANKを作成しました。
木の各ノード(典型的には)において、2つ以上の事実が組み合わさって新しい結論を生み出す。
仮説(質問+回答)が与えられたとき、私たちは3つの難しい説明タスクを定義している: (a) すべての関連文(金の包含木の葉)、 (b) すべての関連文およびいくつかの無関係な文、または (c)コーパス。
強言語モデルはこれらのタスクを部分的に解き、性能を改善するためにいくつかの新しい方向を特定する。
この作業は、コミュニティがよりリッチでシステマティックな説明を生成するための、新しいタイプのデータセット(複数ステップの包含)とベースラインを提供するため、重要である。
関連論文リスト
- Integrating Hierarchical Semantic into Iterative Generation Model for Entailment Tree Explanation [7.5496857647335585]
本稿では,HiSCG (Controller-Generator) の枠組みに基づいて文の階層的意味論を統合するアーキテクチャを提案する。
提案手法はEntailmentBankデータセットの3つの設定で同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-26T11:46:58Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - RLET: A Reinforcement Learning Based Approach for Explainable QA with
Entailment Trees [47.745218107037786]
本稿では,強化学習に基づくEntailment Tree生成フレームワークであるRLETを提案する。
RLETは文の選択と推論生成モジュールによる単一ステップ推論を反復的に行う。
EntailmentBankデータセットの3つの設定の実験では、RLフレームワークを使用することの強みが示されている。
論文 参考訳(メタデータ) (2022-10-31T06:45:05Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - METGEN: A Module-Based Entailment Tree Generation Framework for Answer
Explanation [59.33241627273023]
複数のモジュールと推論コントローラを備えたモジュールベースのEntailment Tree GENフレームワークMETGENを提案する。
質問に対して、METGENは、別々のモジュールで単一ステップのエンタテインメントを実行し、コントローラで推論フローを選択することで、エンタテインメントツリーを反復的に生成することができる。
実験の結果,METGENは従来の最先端モデルよりも9%のパラメータで優れていた。
論文 参考訳(メタデータ) (2022-05-05T12:06:02Z) - Fact-Tree Reasoning for N-ary Question Answering over Knowledge Graphs [21.87251293779023]
本稿では,質問をファクトツリーに変換し,正しい回答を予測するための反復的なファクトツリー推論を行うことにより,新しいファクトツリー推論フレームワークを提案する。
提案するファクトツリー推論フレームワークは,高い応答予測精度の望ましい利点を有することを示す。
論文 参考訳(メタデータ) (2021-08-17T13:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。