論文の概要: Question Answering Survey: Directions, Challenges, Datasets, Evaluation
Matrices
- arxiv url: http://arxiv.org/abs/2112.03572v1
- Date: Tue, 7 Dec 2021 08:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 22:33:59.536434
- Title: Question Answering Survey: Directions, Challenges, Datasets, Evaluation
Matrices
- Title(参考訳): 質問応答調査: 方向性、課題、データセット、評価行列
- Authors: Hariom A. Pandya, Brijesh S. Bhatt
- Abstract要約: QA分野の研究の方向性は,質問の種類,回答の種類,根拠の源泉,モデリングアプローチに基づいて分析される。
これに続き、自動質問生成、類似性検出、言語に対する低リソース可用性など、この分野のオープンな課題が続きます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The usage and amount of information available on the internet increase over
the past decade. This digitization leads to the need for automated answering
system to extract fruitful information from redundant and transitional
knowledge sources. Such systems are designed to cater the most prominent answer
from this giant knowledge source to the user query using natural language
understanding (NLU) and thus eminently depends on the Question-answering(QA)
field.
Question answering involves but not limited to the steps like mapping of user
question to pertinent query, retrieval of relevant information, finding the
best suitable answer from the retrieved information etc. The current
improvement of deep learning models evince compelling performance improvement
in all these tasks.
In this review work, the research directions of QA field are analyzed based
on the type of question, answer type, source of evidence-answer, and modeling
approach. This detailing followed by open challenges of the field like
automatic question generation, similarity detection and, low resource
availability for a language. In the end, a survey of available datasets and
evaluation measures is presented.
- Abstract(参考訳): インターネット上で利用できる情報の利用と量は、過去10年間で増加している。
このデジタル化は、冗長で過渡的な知識ソースから実りある情報を抽出する自動応答システムの必要性をもたらす。
このようなシステムは、自然言語理解(NLU)を用いたユーザクエリに対して、この巨大な知識源から最も顕著な回答を得られるよう設計されており、質問応答(QA)の分野に依存している。
質問応答は、ユーザの質問を関連するクエリにマッピングする、関連する情報の検索、検索した情報から最適な回答を見つける、といったステップに制限されない。
ディープラーニングモデルの現在の改善は、これらすべてのタスクにおいて魅力的なパフォーマンス改善をもたらす。
本報告では,質問の種類,回答の種類,根拠の源泉,モデリングアプローチに基づいて,QA分野の研究方向性を分析した。
この詳細は、自動質問生成、類似性検出、言語に対する低リソース可用性など、この分野のオープンな課題に続きます。
最後に,利用可能なデータセットと評価尺度に関する調査を行った。
関連論文リスト
- Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - Retrieving Contextual Information for Long-Form Question Answering using Weak Supervision [23.394961301584026]
LFQA(Long-form Question answering)は、エンドユーザの質問に対する詳細な回答を生成することを目的としている。
本研究では,文脈情報の検索を最適化するために,様々な弱い監視手法を提案し,比較する。
長文の回答は、しばしばフォローアップの質問を予想することを示している。
論文 参考訳(メタデータ) (2024-10-11T08:42:02Z) - CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - Automatic Question-Answer Generation for Long-Tail Knowledge [65.11554185687258]
テールエンティティのための特別なQAデータセットを生成するための自動アプローチを提案する。
我々は,新たに生成された長尾QAデータセットに事前学習したLLMを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-03T03:06:31Z) - PAQA: Toward ProActive Open-Retrieval Question Answering [34.883834970415734]
本研究の目的は、ユーザクエリとドキュメントの両方に存在する固有の曖昧さを考慮し、関連性のある明確な質問を生成するという課題に取り組むことである。
本稿では,既存のAmbiNQデータセットの拡張であるPAQAを提案する。
次に,様々なモデルの評価を行い,経路探索があいまいさの検出と明瞭な質問の生成にどのように影響するかを評価する。
論文 参考訳(メタデータ) (2024-02-26T14:40:34Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - SituatedQA: Incorporating Extra-Linguistic Contexts into QA [7.495151447459443]
SituatedQA(SituatedQA)は,時間的・地理的文脈を考慮に入れた質問に対して,システムが正しい回答を提示しなければならない,オープン検索型QAデータセットである。
質問を求める情報のかなりの割合は、文脈に依存した回答であることがわかった。
我々の研究は、既存のモデルが頻繁に更新される、あるいは珍しい場所から回答を得るのに苦労していることを示している。
論文 参考訳(メタデータ) (2021-09-13T17:53:21Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。