論文の概要: Multi-Step Reasoning Over Unstructured Text with Beam Dense Retrieval
- arxiv url: http://arxiv.org/abs/2104.05883v1
- Date: Tue, 13 Apr 2021 01:16:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 00:31:01.428653
- Title: Multi-Step Reasoning Over Unstructured Text with Beam Dense Retrieval
- Title(参考訳): ビーム線量検索による非構造化テキスト上のマルチステップ推論
- Authors: Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daum\'e III
- Abstract要約: 複雑な質問応答は、しばしば複数の証拠からなる推論連鎖を必要とする。
高密度表現におけるビーム探索によるエビデンス連鎖を反復的に形成する,新しいマルチステップ検索手法(BeamDR)を提案する。
BeamDRは、半構造化情報を用いることなく、最先端システムと競合する。
- 参考スコア(独自算出の注目度): 19.551623461082617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complex question answering often requires finding a reasoning chain that
consists of multiple evidence pieces. Current approaches incorporate the
strengths of structured knowledge and unstructured text, assuming text corpora
is semi-structured. Building on dense retrieval methods, we propose a new
multi-step retrieval approach (BeamDR) that iteratively forms an evidence chain
through beam search in dense representations. When evaluated on multi-hop
question answering, BeamDR is competitive to state-of-the-art systems, without
using any semi-structured information. Through query composition in dense
space, BeamDR captures the implicit relationships between evidence in the
reasoning chain. The code is available at https://github.com/
henryzhao5852/BeamDR.
- Abstract(参考訳): 複雑な質問に答えるには、しばしば複数の証拠からなる推論連鎖を見つける必要がある。
現在のアプローチでは、テキストコーパスが半構造化されていると仮定して、構造化知識と非構造化テキストの強みを取り入れている。
本研究では,高密度検索手法に基づいて,高密度表現におけるビーム探索によるエビデンス連鎖を反復的に形成する新しい多段階検索手法(BeamDR)を提案する。
マルチホップ質問応答の評価において、ビームDRは半構造化情報を用いずに最先端システムと競合する。
密空間における問合せ合成により、ビームDRは推論連鎖における証拠間の暗黙の関係を捉える。
コードはhttps://github.com/henryzhao5852/BeamDRで入手できる。
関連論文リスト
- STOC-TOT: Stochastic Tree-of-Thought with Constrained Decoding for Complex Reasoning in Multi-Hop Question Answering [8.525847131940031]
マルチホップ質問応答(MHQA)は、複雑な質問に答えるために複数の通路から情報を検索し統合するモデルを必要とする。
近年のシステムでは、大規模言語モデルのパワーを活用し、証拠検索と推論のプロンプトを統合している。
MHQAの制約付き復号法であるSTOC-TOTを提案する。
論文 参考訳(メタデータ) (2024-07-04T07:17:53Z) - Chain-of-Discussion: A Multi-Model Framework for Complex Evidence-Based Question Answering [55.295699268654545]
本稿では,オープンソースのLarge Language Model間の相乗効果を利用する新しいChain-of-Discussionフレームワークを提案する。
実験の結果,複数のLSM間の議論は回答の質を高める上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2024-02-26T05:31:34Z) - Multi-grained Evidence Inference for Multi-choice Reading Comprehension [62.0773160298008]
MRC(Multi-choice Machine Reading)は、マシンが提供されたオプションに従って質問に答える上で、重要かつ困難なタスクである。
多粒性エビデンスを包括的に統合した多粒性エビデンス推論システム(Mugen)を提案する。
Mugen は3つの異なるエビデンスを抽出し、エビデンスを元のパスと統合し、4つのマルチチョイス MRC ベンチマークで顕著で一貫したパフォーマンス改善を達成する。
論文 参考訳(メタデータ) (2023-10-27T11:36:18Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Answering Questions by Meta-Reasoning over Multiple Chains of Thought [53.55653437903948]
MCR(Multi-Chain Reasoning)は,大規模言語モデルに対して,複数の思考連鎖に対するメタ推論を促す手法である。
MCRは、異なる推論連鎖を調べ、それら間で情報を混合し、説明を生成し、答えを予測する際に最も関係のある事実を選択する。
論文 参考訳(メタデータ) (2023-04-25T17:27:37Z) - ReasonChainQA: Text-based Complex Question Answering with Explainable
Evidence Chains [15.837457557803507]
説明的および明示的なエビデンス連鎖を有するベンチマーク textbfReasonChainQA を提案する。
ReasonChainQAは、回答生成とエビデンス連鎖抽出という2つのサブタスクから構成される。
教師付きおよび教師なし検索に関する追加実験は、ReasonChainQAの重要性を十分に示している。
論文 参考訳(メタデータ) (2022-10-17T06:07:39Z) - Exploiting Reasoning Chains for Multi-hop Science Question Answering [51.86289192292466]
我々のフレームワークは、コーパス固有のアノテーションを必要とせずに説明可能な推論を行うことができる。
ローカルチェーン情報とグローバルチェーン情報の両方に関するTextitChain対応の損失は、生成されたチェーンが遠隔監視信号として機能するようにも設計されている。
論文 参考訳(メタデータ) (2021-09-07T07:22:07Z) - HopRetriever: Retrieve Hops over Wikipedia to Answer Complex Questions [38.89150764309989]
We build HopRetriever that retrieves hops over Wikipedia to answer complex questions。
また,本手法は証拠収集過程の定量的解釈ももたらしている。
論文 参考訳(メタデータ) (2020-12-31T10:36:01Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - XTE: Explainable Text Entailment [8.036150169408241]
あるテキストが論理的に他のテキストから続くかどうかを判断する作業である。
XTE (Explainable Text Entailment) は、テキストエンターメントを認識するための新しい複合アプローチである。
論文 参考訳(メタデータ) (2020-09-25T20:49:07Z) - SPARQA: Skeleton-based Semantic Parsing for Complex Questions over
Knowledge Bases [27.343078784035693]
本稿では,複雑な質問の高次構造を表現するために,新しいスケルトン文法を提案する。
BERTをベースとしたパースアルゴリズムを用いたこの厳密な形式化は、下流の微細なセマンティック解析の精度を向上させるのに役立つ。
このアプローチは、いくつかのデータセットで有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-03-31T05:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。