論文の概要: Frustratingly Hard Evidence Retrieval for QA Over Books
- arxiv url: http://arxiv.org/abs/2007.09878v1
- Date: Mon, 20 Jul 2020 04:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:14:40.254880
- Title: Frustratingly Hard Evidence Retrieval for QA Over Books
- Title(参考訳): 書籍に関するQAの難解な証拠検索
- Authors: Xiangyang Mou, Mo Yu, Bingsheng Yao, Chenghao Yang, Xiaoxiao Guo,
Saloni Potdar, Hui Su
- Abstract要約: 我々は、証拠検索に類似しているため、オープンドメインQAタスクとしてBookQAを定式化する。
最先端のオープンドメインQAアプローチがBookQAにどのように役立つかを検討する。
- 参考スコア(独自算出の注目度): 42.451721693007954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A lot of progress has been made to improve question answering (QA) in recent
years, but the special problem of QA over narrative book stories has not been
explored in-depth. We formulate BookQA as an open-domain QA task given its
similar dependency on evidence retrieval. We further investigate how
state-of-the-art open-domain QA approaches can help BookQA. Besides achieving
state-of-the-art on the NarrativeQA benchmark, our study also reveals the
difficulty of evidence retrieval in books with a wealth of experiments and
analysis - which necessitates future effort on novel solutions for evidence
retrieval in BookQA.
- Abstract(参考訳): 近年,質問応答(QA)の改善に多くの進展がみられてきたが,物語の物語に対するQAの特別な問題は深くは調査されていない。
我々は、証拠検索に類似しているため、オープンドメインQAタスクとしてBookQAを定式化する。
さらに、最先端のオープンドメインQAアプローチがBookQAにどのように役立つかについても検討する。
ナラティブQAベンチマークの最先端化に加えて,本研究は,書籍における証拠検索の難しさも明らかにしている。
関連論文リスト
- Improving Health Question Answering with Reliable and Time-Aware Evidence Retrieval [5.69361786082969]
本研究は,オープンドメインのQA設定に焦点をあて,重要な課題は,まず大きな知識ベースで関連する証拠を明らかにすることである。
一般的な検索対象QAパイプラインとPubMedを信頼できる医療研究資料のコレクションとして活用することにより、3つの多様なデータセットからの健康問題に答える。
以上の結果から,検索した文書の量を削減し,最近かつ高度に引用された文書を優先することで,最終マクロF1スコアを最大10%向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-04-12T09:56:12Z) - Closed-book Question Generation via Contrastive Learning [20.644215991166895]
コントラスト学習モジュールと回答再構成モジュールを併用した新しいQGモデルを提案する。
提案手法を応用して,既存のクローズドブックQAシステムを改善する方法について述べる。
論文 参考訳(メタデータ) (2022-10-13T06:45:46Z) - Can Question Rewriting Help Conversational Question Answering? [13.484873786389471]
質問書き直し (QR) は会話型質問応答 (CQA) のサブタスクである。
本稿では,QRとCQAタスクを統合した強化学習手法について検討する。
しかし、RL法はエンドツーエンドのベースラインと同等であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T08:16:03Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - Narrative Question Answering with Cutting-Edge Open-Domain QA
Techniques: A Comprehensive Study [45.9120218818558]
我々は,NarrativeQAデータセットについて,最先端ODQA技術を用いた実験でベンチマークを行った。
このことは、書籍のQAがもたらす課題を定量化し、発行された最先端技術がルージュ-Lの絶対的な改善として$sim$7%で進歩する。
その結果,イベント中心の質問がこのタスクを支配しており,イベント指向シナリオを扱うための既存のQAモデルの欠如を実証していることがわかった。
論文 参考訳(メタデータ) (2021-06-07T17:46:09Z) - Retrieving and Reading: A Comprehensive Survey on Open-domain Question
Answering [62.88322725956294]
OpenQAの最近の研究動向を概観し、特にニューラルMSC技術を導入したシステムに注目した。
Retriever-Reader' と呼ばれる最新の OpenQA アーキテクチャを導入し、このアーキテクチャに従うさまざまなシステムを分析します。
次に、OpenQAシステムの開発における主要な課題について議論し、一般的に使用されるベンチマークの分析を提供する。
論文 参考訳(メタデータ) (2021-01-04T04:47:46Z) - Technical Question Answering across Tasks and Domains [47.80330046038137]
文書検索と読解作業のための調整可能な共同学習手法を提案する。
TechQAに関する我々の実験は、最先端の手法と比較して優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-19T18:39:30Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。