論文の概要: A Survey on Multi-hop Question Answering and Generation
- arxiv url: http://arxiv.org/abs/2204.09140v1
- Date: Tue, 19 Apr 2022 21:55:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 01:20:58.782401
- Title: A Survey on Multi-hop Question Answering and Generation
- Title(参考訳): マルチホップ質問応答と生成に関する調査
- Authors: Vaibhav Mavi (New York University, United States of America), Anubhav
Jangra (Indian Institute of Technology, Patna, India), Adam Jatowt
(University of Innsbruck, Austria)
- Abstract要約: MHQA(Multi-Hop QA)は近年最も研究されているタスクの一つである。
マルチホップ質問に回答し、マルチステップ推論を行う能力は、NLPシステムの実用性を大幅に向上させることができる。
この作業は、MHQAタスクの汎用的で正式な定義を提供し、既存のMHQAフレームワークを編成し、まとめることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of Question Answering (QA) has attracted significant research
interest for long. Its relevance to language understanding and knowledge
retrieval tasks, along with the simple setting makes the task of QA crucial for
strong AI systems. Recent success on simple QA tasks has shifted the focus to
more complex settings. Among these, Multi-Hop QA (MHQA) is one of the most
researched tasks over the recent years. The ability to answer multi-hop
questions and perform multi step reasoning can significantly improve the
utility of NLP systems. Consequently, the field has seen a sudden surge with
high quality datasets, models and evaluation strategies. The notion of
`multiple hops' is somewhat abstract which results in a large variety of tasks
that require multi-hop reasoning. This implies that different datasets and
models differ significantly which makes the field challenging to generalize and
survey. This work aims to provide a general and formal definition of MHQA task,
and organize and summarize existing MHQA frameworks. We also outline the best
methods to create MHQA datasets. The paper provides a systematic and thorough
introduction as well as the structuring of the existing attempts to this highly
interesting, yet quite challenging task.
- Abstract(参考訳): 質問回答(QA)の問題は、長い間大きな研究関心を集めてきた。
言語理解と知識検索タスクとの関連性は、単純な設定とともに、強力なAIシステムにおいてQAのタスクが不可欠である。
単純なQAタスクの最近の成功は、より複雑な設定に焦点を移した。
このうち、Multi-Hop QA(MHQA)は近年最も研究されているタスクの1つである。
マルチホップ質問に回答し、マルチステップ推論を行う能力は、NLPシステムの有用性を大幅に改善することができる。
その結果、高品質なデータセット、モデル、評価戦略が突然急増した。
多重ホップ」の概念はやや抽象的であり、結果として多元ホップ推論を必要とする様々なタスクが生じる。
これは、異なるデータセットとモデルが著しく異なることを意味するため、フィールドの一般化と調査が難しくなる。
この作業は、MHQAタスクの汎用的で正式な定義を提供し、既存のMHQAフレームワークを編成し、まとめることを目的としている。
また,mhqaデータセットを作成するための最善の方法を概説する。
この論文は、体系的で徹底的な紹介と、この非常に興味深い、そして非常に難しい課題に対する既存の試みの構造化を提供する。
関連論文リスト
- In-Context Ability Transfer for Question Decomposition in Complex QA [6.745884231594893]
複雑な問合せ課題を解決するために,icat(In-Context Ability Transfer)を提案する。
複雑な質問を単純な質問に分解したり、ステップバイステップの合理性をLSMに生成することができる。
本研究では, 数値推論, 構成複素QA, 不均一複素QAを含む多種多様な複雑なQAタスクについて大規模に実験を行った。
論文 参考訳(メタデータ) (2023-10-26T11:11:07Z) - UNK-VQA: A Dataset and A Probe into Multi-modal Large Models' Abstention
Ability [51.812099161015745]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Performance Prediction for Multi-hop Questions [7.388002745070808]
オープンドメイン型マルチホップ質問の性能を予測するための検索前手法であるmultHPを提案する。
評価の結果,提案モデルが従来のシングルホップQPPモデルよりも優れた性能を示すことが示唆された。
論文 参考訳(メタデータ) (2023-08-12T01:34:41Z) - Rethinking Label Smoothing on Multi-hop Question Answering [87.68071401870283]
MHQA (Multi-Hop Question Answering) は質問応答において重要な分野である。
本研究では,マルチホップ推論の性能を制限する主要な要因を解析する。
学習プロセスに不確実性を組み込んだ新しいラベル平滑化手法F1 Smoothingを提案する。
論文 参考訳(メタデータ) (2022-12-19T14:48:08Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Prompt-based Conservation Learning for Multi-hop Question Answering [11.516763652013005]
マルチホップ質問応答には、複雑な質問に答えるために複数の文書を推論する必要がある。
既存のマルチホップQAメソッドの多くは、サブクエストのかなりの部分に答えられません。
マルチホップQAのためのPromptベースの保存学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T20:50:46Z) - Lifelong Learning for Question Answering with Hierarchical Prompts [65.70781233723126]
Dianaは動的アーキテクチャベースの生涯QAモデルで、一連のQAタスクを学習しようとする。
階層的に整理された4つのプロンプトは、異なる粒度からQA知識を取得するためにダイアナで使用される。
実験では、Dianaは、特に目に見えないタスクの処理において、最先端のQAモデルよりも優れています。
論文 参考訳(メタデータ) (2022-08-31T02:38:16Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - From Easy to Hard: Two-stage Selector and Reader for Multi-hop Question
Answering [12.072618400000763]
マルチホップ質問応答(Multi-hop question answering, QA)は、複数の文書に対して複雑な推論を行うQAシステムを必要とする課題である。
本稿では,難読化情報を取り除き,文脈表現を改善するための新しいフレームワーク,From Easy to Hard (FE2H)を提案する。
FE2Hは文書セレクタとリーダーの両方を2段階に分割する。
論文 参考訳(メタデータ) (2022-05-24T02:33:58Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Reinforced Multi-task Approach for Multi-hop Question Generation [47.15108724294234]
我々は,その文脈における支援事実に基づいて,関連する質問を生成することを目的としたマルチホップ質問生成を取り上げている。
我々は,質問生成を導くために,回答認識支援事実予測の補助タスクを備えたマルチタスク学習を採用する。
マルチホップ質問応答データセットHotPotQAの実験を通して,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-04-05T10:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。