論文の概要: From Easy to Hard: Two-stage Selector and Reader for Multi-hop Question
Answering
- arxiv url: http://arxiv.org/abs/2205.11729v1
- Date: Tue, 24 May 2022 02:33:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 09:39:01.273884
- Title: From Easy to Hard: Two-stage Selector and Reader for Multi-hop Question
Answering
- Title(参考訳): 簡単からハードへ:二段階セレクタとマルチホップ質問応答用リーダー
- Authors: Xin-Yi Li, Wei-Jun Lei, Yu-Bin Yang
- Abstract要約: マルチホップ質問応答(Multi-hop question answering, QA)は、複数の文書に対して複雑な推論を行うQAシステムを必要とする課題である。
本稿では,難読化情報を取り除き,文脈表現を改善するための新しいフレームワーク,From Easy to Hard (FE2H)を提案する。
FE2Hは文書セレクタとリーダーの両方を2段階に分割する。
- 参考スコア(独自算出の注目度): 12.072618400000763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-hop question answering (QA) is a challenging task requiring QA systems
to perform complex reasoning over multiple documents and provide supporting
facts together with the exact answer. Existing works tend to utilize
graph-based reasoning and question decomposition to obtain the reasoning chain,
which inevitably introduces additional complexity and cumulative error to the
system. To address the above issue, we propose a simple yet effective novel
framework, From Easy to Hard (FE2H), to remove distracting information and
obtain better contextual representations for the multi-hop QA task. Inspired by
the iterative document selection process and the progressive learning custom of
humans, FE2H divides both the document selector and reader into two stages
following an easy-to-hard manner. Specifically, we first select the document
most relevant to the question and then utilize the question together with this
document to select other pertinent documents. As for the QA phase, our reader
is first trained on a single-hop QA dataset and then transferred into the
multi-hop QA task. We comprehensively evaluate our model on the popular
multi-hop QA benchmark HotpotQA. Experimental results demonstrate that our
method ourperforms all other methods in the leaderboard of HotpotQA (distractor
setting).
- Abstract(参考訳): マルチホップ質問応答(Multi-hop Question answering, QA)は、複数の文書に対して複雑な推論を行い、正確な回答とともに支援事実を提供する必要がある課題である。
既存の研究は、グラフベースの推論と質問分解を利用して推論チェーンを得る傾向があり、必然的にシステムにさらなる複雑さと累積誤差をもたらす。
上記の課題に対処するため,マルチホップQAタスクにおいて,注意をそらす情報を取り除き,より優れたコンテキスト表現を実現するための,シンプルで効果的な新しいフレームワークであるFrom Easy to Hard(FE2H)を提案する。
FE2Hは、反復的な文書選択プロセスと人間の進歩的な学習習慣にインスパイアされ、文書セレクタと読者の両方を、簡単かつハードな方法で2段階に分割する。
具体的には,まず質問に最も関連性の高い文書を選択し,その文書と組み合わせて他の関連する文書を選択する。
QAフェーズについては、まずシングルホップのQAデータセットでトレーニングを行い、次にマルチホップのQAタスクに転送します。
一般的なマルチホップQAベンチマークHotpotQAで、我々のモデルを総合的に評価する。
実験の結果,本手法はhotpotqa(distractor set)のリーダボードに他のすべてのメソッドを変換する。
関連論文リスト
- MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - Rethinking Label Smoothing on Multi-hop Question Answering [87.68071401870283]
MHQA (Multi-Hop Question Answering) は質問応答において重要な分野である。
本研究では,マルチホップ推論の性能を制限する主要な要因を解析する。
学習プロセスに不確実性を組み込んだ新しいラベル平滑化手法F1 Smoothingを提案する。
論文 参考訳(メタデータ) (2022-12-19T14:48:08Z) - Prompt-based Conservation Learning for Multi-hop Question Answering [11.516763652013005]
マルチホップ質問応答には、複雑な質問に答えるために複数の文書を推論する必要がある。
既存のマルチホップQAメソッドの多くは、サブクエストのかなりの部分に答えられません。
マルチホップQAのためのPromptベースの保存学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T20:50:46Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Memory Augmented Sequential Paragraph Retrieval for Multi-hop Question
Answering [32.69969157825044]
本稿では,段落を逐次データとしてモデル化し,マルチホップ情報検索をシーケンスラベリングタスクの一種とみなす新しいアーキテクチャを提案する。
本手法は,公開テキストマルチホップQAデータセットであるHotpotQAのフルwikiとイントラクタサブタスクの両方で評価する。
論文 参考訳(メタデータ) (2021-02-07T08:15:51Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Answering Complex Open-Domain Questions with Multi-Hop Dense Retrieval [117.07047313964773]
複雑なオープンドメインの質問に答えるために, 単純で効率的なマルチホップ高密度検索手法を提案する。
本手法では,文書間ハイパーリンクやアノテートされたエンティティマーカーなど,コーパス固有の情報へのアクセスは不要である。
提案システムでは,HotpotQA上でのベストパブリッシュ精度と,推論時の10倍の速度で,より優れた効率・精度のトレードオフも実現している。
論文 参考訳(メタデータ) (2020-09-27T06:12:29Z) - Answering Any-hop Open-domain Questions with Iterative Document
Reranking [62.76025579681472]
オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
論文 参考訳(メタデータ) (2020-09-16T04:31:38Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。