論文の概要: Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner
- arxiv url: http://arxiv.org/abs/2205.09224v1
- Date: Wed, 18 May 2022 21:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-21 09:48:42.717252
- Title: Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner
- Title(参考訳): 反復検索生成推論による帰納木説明
- Authors: Danilo Ribeiro, Shen Wang, Xiaofei Ma, Rui Dong, Xiaokai Wei, Henry
Zhu, Xinchi Chen, Zhiheng Huang, Peng Xu, Andrew Arnold, Dan Roth
- Abstract要約: 我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
- 参考スコア(独自算出の注目度): 56.08919422452905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models have achieved high performance on various question
answering (QA) benchmarks, but the explainability of their output remains
elusive. Structured explanations, called entailment trees, were recently
suggested as a way to explain and inspect a QA system's answer. In order to
better generate such entailment trees, we propose an architecture called
Iterative Retrieval-Generation Reasoner (IRGR). Our model is able to explain a
given hypothesis by systematically generating a step-by-step explanation from
textual premises. The IRGR model iteratively searches for suitable premises,
constructing a single entailment step at a time. Contrary to previous
approaches, our method combines generation steps and retrieval of premises,
allowing the model to leverage intermediate conclusions, and mitigating the
input size limit of baseline encoder-decoder models. We conduct experiments
using the EntailmentBank dataset, where we outperform existing benchmarks on
premise retrieval and entailment tree generation, with around 300% gain in
overall correctness.
- Abstract(参考訳): 大規模言語モデルは、様々な質問応答(QA)ベンチマークで高い性能を達成しているが、その出力の説明可能性はまだ明白である。
構造的説明はentailment treeと呼ばれ、最近QAシステムの答えを説明・検査する方法として提案されている。
このような関係木をよりよく生成するために,Iterative Retrieval-Generation Reasoner (IRGR) と呼ばれるアーキテクチャを提案する。
本モデルは,テキストの前提から段階的な説明を体系的に生成することにより,与えられた仮説を説明することができる。
IRGRモデルは、適切な前提を反復的に探索し、一度に1つの追加ステップを構築する。
従来の手法とは対照的に,本手法では生成ステップと前提条件の検索を組み合わせ,中間的な結論をモデルに活用し,ベースラインエンコーダ・デコーダモデルの入力サイズ制限を緩和する。
我々はentailmentbankデータセットを用いて実験を行い、前提検索とentailment tree生成に関する既存のベンチマークを上回り、全体の正確性が約300%向上した。
関連論文リスト
- Integrating Hierarchical Semantic into Iterative Generation Model for Entailment Tree Explanation [7.5496857647335585]
本稿では,HiSCG (Controller-Generator) の枠組みに基づいて文の階層的意味論を統合するアーキテクチャを提案する。
提案手法はEntailmentBankデータセットの3つの設定で同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-26T11:46:58Z) - A Logical Pattern Memory Pre-trained Model for Entailment Tree
Generation [23.375260036179252]
コヒーレントで信頼できる説明を生成することは、AI分野における重要な課題である。
論理パターンメモリ事前学習モデル(LMPM)を提案する。
我々のモデルは、基礎となる前提と密接に一致したより一貫性があり合理的な結論を生み出す。
論文 参考訳(メタデータ) (2024-03-11T03:45:09Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - RLET: A Reinforcement Learning Based Approach for Explainable QA with
Entailment Trees [47.745218107037786]
本稿では,強化学習に基づくEntailment Tree生成フレームワークであるRLETを提案する。
RLETは文の選択と推論生成モジュールによる単一ステップ推論を反復的に行う。
EntailmentBankデータセットの3つの設定の実験では、RLフレームワークを使用することの強みが示されている。
論文 参考訳(メタデータ) (2022-10-31T06:45:05Z) - METGEN: A Module-Based Entailment Tree Generation Framework for Answer
Explanation [59.33241627273023]
複数のモジュールと推論コントローラを備えたモジュールベースのEntailment Tree GENフレームワークMETGENを提案する。
質問に対して、METGENは、別々のモジュールで単一ステップのエンタテインメントを実行し、コントローラで推論フローを選択することで、エンタテインメントツリーを反復的に生成することができる。
実験の結果,METGENは従来の最先端モデルよりも9%のパラメータで優れていた。
論文 参考訳(メタデータ) (2022-05-05T12:06:02Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Optimal Counterfactual Explanations in Tree Ensembles [3.8073142980733]
我々は「最適」な説明を目的としたモデルに基づく探索を提唱し、効率的な混合整数プログラミング手法を提案する。
孤立林は我々のフレームワーク内でモデル化され、低いアウトリーチスコアで妥当な説明に焦点を絞ることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T22:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。