論文の概要: Unsupervised Alignment-based Iterative Evidence Retrieval for Multi-hop
Question Answering
- arxiv url: http://arxiv.org/abs/2005.01218v1
- Date: Mon, 4 May 2020 00:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 01:25:01.636771
- Title: Unsupervised Alignment-based Iterative Evidence Retrieval for Multi-hop
Question Answering
- Title(参考訳): 教師なしアライメントに基づくマルチホップ質問応答のための反復的証拠検索
- Authors: Vikas Yadav, Steven Bethard and Mihai Surdeanu
- Abstract要約: 本稿では,単純で高速かつ教師なしの反復的証拠検索手法を提案する。
その単純さにもかかわらず,提案手法はエビデンス選択タスクにおいて,従来の手法よりも優れていた。
これらのエビデンス文をRoBERTaの回答分類コンポーネントに入力すると、最先端のQA性能が得られる。
- 参考スコア(独自算出の注目度): 40.58976291178477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evidence retrieval is a critical stage of question answering (QA), necessary
not only to improve performance, but also to explain the decisions of the
corresponding QA method. We introduce a simple, fast, and unsupervised
iterative evidence retrieval method, which relies on three ideas: (a) an
unsupervised alignment approach to soft-align questions and answers with
justification sentences using only GloVe embeddings, (b) an iterative process
that reformulates queries focusing on terms that are not covered by existing
justifications, which (c) a stopping criterion that terminates retrieval when
the terms in the given question and candidate answers are covered by the
retrieved justifications. Despite its simplicity, our approach outperforms all
the previous methods (including supervised methods) on the evidence selection
task on two datasets: MultiRC and QASC. When these evidence sentences are fed
into a RoBERTa answer classification component, we achieve state-of-the-art QA
performance on these two datasets.
- Abstract(参考訳): 証拠検索は質問応答(QA)の重要な段階であり、性能の向上だけでなく、対応するQA法の決定についても説明する必要がある。
3つのアイデアに依拠する,単純で高速かつ教師なしの反復的証拠検索手法を提案する。
(a)GloVe埋め込みのみを用いた正当性のある質問や回答に対する教師なしアライメントアプローチ
(b)既存の正当性に満たない用語に焦点をあてた問合せを再構成する反復的プロセス
c) 与えられた質問及び候補回答の項が検索された正当性によってカバーされた場合に検索を終了させる停止基準
その単純さにもかかわらず、我々のアプローチは2つのデータセット(multircとqasc)のエビデンス選択タスクにおいて、以前のすべてのメソッド(教師付きメソッドを含む)を上回る。
これらのエビデンス文をRoBERTa回答分類コンポーネントに入力すると、これらの2つのデータセット上で最先端のQA性能が得られる。
関連論文リスト
- Options-Aware Dense Retrieval for Multiple-Choice query Answering [5.098112872671412]
長文複数選択質問応答タスクは、広範囲なテキストソースに対して頑健な推論を必要とする。
この領域における先行研究は、主に事前訓練された高密度検索モデルを利用している。
本稿では,これらの課題に対処するため,OADR (Options Aware Dense Retrieval) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-27T15:03:26Z) - Chain-of-Action: Faithful and Multimodal Question Answering through Large Language Models [17.60243337898751]
マルチモーダルおよび検索強化質問応答(QA)のためのチェーン・オブ・アクション・フレームワークを提案する。
文献と比較すると、CoAは現在のQAアプリケーションにおける2つの大きな課題を克服している: (i) リアルタイムやドメインの事実と矛盾しない不誠実な幻覚、(ii) 構成情報よりも弱い推論性能。
論文 参考訳(メタデータ) (2024-03-26T03:51:01Z) - Diverse Multi-Answer Retrieval with Determinantal Point Processes [11.925050407713597]
本稿では,BERTをカーネルとして利用する決定点プロセスを用いた再ランク付け手法を提案する。
その結果,本手法はAmbigQAデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-11-29T08:54:05Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Double Retrieval and Ranking for Accurate Question Answering [120.69820139008138]
本研究では,トランスフォーマーを用いた解答選択モデルに導入された解答検証ステップが,問合せ解答における解答の精度を大幅に向上させることを示す。
AS2のためのよく知られた3つのデータセットの結果は、最先端の一貫性と大幅な改善を示している。
論文 参考訳(メタデータ) (2022-01-16T06:20:07Z) - Adaptive Information Seeking for Open-Domain Question Answering [61.39330982757494]
本稿では,オープンドメイン質問応答,すなわちAISOに対する適応型情報探索手法を提案する。
学習方針によると、AISOは適切な検索行動を選択し、各ステップで行方不明の証拠を探すことができる。
AISOは、検索と回答の評価の両方の観点から、事前定義された戦略で全てのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2021-09-14T15:08:13Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。