論文の概要: Unsupervised Alignment-based Iterative Evidence Retrieval for Multi-hop
Question Answering
- arxiv url: http://arxiv.org/abs/2005.01218v1
- Date: Mon, 4 May 2020 00:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 01:25:01.636771
- Title: Unsupervised Alignment-based Iterative Evidence Retrieval for Multi-hop
Question Answering
- Title(参考訳): 教師なしアライメントに基づくマルチホップ質問応答のための反復的証拠検索
- Authors: Vikas Yadav, Steven Bethard and Mihai Surdeanu
- Abstract要約: 本稿では,単純で高速かつ教師なしの反復的証拠検索手法を提案する。
その単純さにもかかわらず,提案手法はエビデンス選択タスクにおいて,従来の手法よりも優れていた。
これらのエビデンス文をRoBERTaの回答分類コンポーネントに入力すると、最先端のQA性能が得られる。
- 参考スコア(独自算出の注目度): 40.58976291178477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evidence retrieval is a critical stage of question answering (QA), necessary
not only to improve performance, but also to explain the decisions of the
corresponding QA method. We introduce a simple, fast, and unsupervised
iterative evidence retrieval method, which relies on three ideas: (a) an
unsupervised alignment approach to soft-align questions and answers with
justification sentences using only GloVe embeddings, (b) an iterative process
that reformulates queries focusing on terms that are not covered by existing
justifications, which (c) a stopping criterion that terminates retrieval when
the terms in the given question and candidate answers are covered by the
retrieved justifications. Despite its simplicity, our approach outperforms all
the previous methods (including supervised methods) on the evidence selection
task on two datasets: MultiRC and QASC. When these evidence sentences are fed
into a RoBERTa answer classification component, we achieve state-of-the-art QA
performance on these two datasets.
- Abstract(参考訳): 証拠検索は質問応答(QA)の重要な段階であり、性能の向上だけでなく、対応するQA法の決定についても説明する必要がある。
3つのアイデアに依拠する,単純で高速かつ教師なしの反復的証拠検索手法を提案する。
(a)GloVe埋め込みのみを用いた正当性のある質問や回答に対する教師なしアライメントアプローチ
(b)既存の正当性に満たない用語に焦点をあてた問合せを再構成する反復的プロセス
c) 与えられた質問及び候補回答の項が検索された正当性によってカバーされた場合に検索を終了させる停止基準
その単純さにもかかわらず、我々のアプローチは2つのデータセット(multircとqasc)のエビデンス選択タスクにおいて、以前のすべてのメソッド(教師付きメソッドを含む)を上回る。
これらのエビデンス文をRoBERTa回答分類コンポーネントに入力すると、これらの2つのデータセット上で最先端のQA性能が得られる。
関連論文リスト
- Chain-of-Action: Faithful and Multimodal Question Answering through Large Language Models [17.60243337898751]
マルチモーダルおよび検索強化質問応答(QA)のためのチェーン・オブ・アクション・フレームワークを提案する。
文献と比較すると、CoAは現在のQAアプリケーションにおける2つの大きな課題を克服している: (i) リアルタイムやドメインの事実と矛盾しない不誠実な幻覚、(ii) 構成情報よりも弱い推論性能。
論文 参考訳(メタデータ) (2024-03-26T03:51:01Z) - Mastering the ABCDs of Complex Questions: Answer-Based Claim
Decomposition for Fine-grained Self-Evaluation [9.776667356119352]
本稿では,質問を真偽のクレームに分解する手法であるABCDを提案する。
ABCDクレームを分解し, きめ細かい自己評価を行う。
GPT-3.5は、その答えがどの程度入力された質問の基準を満たすかを決定する能力を持っていることがわかった。
論文 参考訳(メタデータ) (2023-05-24T05:53:11Z) - Diverse Multi-Answer Retrieval with Determinantal Point Processes [11.925050407713597]
本稿では,BERTをカーネルとして利用する決定点プロセスを用いた再ランク付け手法を提案する。
その結果,本手法はAmbigQAデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-11-29T08:54:05Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Double Retrieval and Ranking for Accurate Question Answering [120.69820139008138]
本研究では,トランスフォーマーを用いた解答選択モデルに導入された解答検証ステップが,問合せ解答における解答の精度を大幅に向上させることを示す。
AS2のためのよく知られた3つのデータセットの結果は、最先端の一貫性と大幅な改善を示している。
論文 参考訳(メタデータ) (2022-01-16T06:20:07Z) - Adaptive Information Seeking for Open-Domain Question Answering [61.39330982757494]
本稿では,オープンドメイン質問応答,すなわちAISOに対する適応型情報探索手法を提案する。
学習方針によると、AISOは適切な検索行動を選択し、各ステップで行方不明の証拠を探すことができる。
AISOは、検索と回答の評価の両方の観点から、事前定義された戦略で全てのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2021-09-14T15:08:13Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。