論文の概要: Self-Teaching Machines to Read and Comprehend with Large-Scale
Multi-Subject Question Answering Data
- arxiv url: http://arxiv.org/abs/2102.01226v1
- Date: Mon, 1 Feb 2021 23:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:55:20.062902
- Title: Self-Teaching Machines to Read and Comprehend with Large-Scale
Multi-Subject Question Answering Data
- Title(参考訳): 大規模多目的質問回答データによる自己学習機械の読み書き
- Authors: Dian Yu, Kai Sun, Dong Yu, Claire Cardie
- Abstract要約: 主観的問合せデータが機械読解作業に有用かどうかは不明である。
大規模多目的多目的質問回答データセットであるExamQAを収集する。
我々は、Web検索エンジンが返す不完全でノイズの多いスニペットを、各質問応答インスタンスの関連するコンテキストとして使用し、弱いラベル付きMRCインスタンスに変換する。
- 参考スコア(独自算出の注目度): 58.36305373100518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In spite of much recent research in the area, it is still unclear whether
subject-area question-answering data is useful for machine reading
comprehension (MRC) tasks. In this paper, we investigate this question. We
collect a large-scale multi-subject multiple-choice question-answering dataset,
ExamQA, and use incomplete and noisy snippets returned by a web search engine
as the relevant context for each question-answering instance to convert it into
a weakly-labeled MRC instance. We then propose a self-teaching paradigm to
better use the generated weakly-labeled MRC instances to improve a target MRC
task. Experimental results show that we can obtain an improvement of 5.1% in
accuracy on a multiple-choice MRC dataset, C^3, demonstrating the effectiveness
of our framework and the usefulness of large-scale subject-area
question-answering data for machine reading comprehension.
- Abstract(参考訳): この領域の最近の研究にもかかわらず、対象領域の質問応答データが機械読解(MRC)タスクに有用かどうかはまだ不明である。
本稿では,この問題について考察する。
大規模多目的多目的質問答えデータセットであるExamQAを収集し,Web検索エンジンが返送する不完全でノイズの多いスニペットを各問合せインスタンスのコンテキストとして使用し,弱ラベルのMRCインスタンスに変換する。
次に,生成した弱ラベルMRCインスタンスを,ターゲットMRCタスクを改善するための自己学習パラダイムを提案する。
実験結果から,マルチチョイスMRCデータセットC^3では5.1%の精度向上が可能であり,本フレームワークの有効性と,機械学習理解のための大規模質問応答データの有効性が示された。
関連論文リスト
- RAG-ConfusionQA: A Benchmark for Evaluating LLMs on Confusing Questions [52.33835101586687]
会話AIエージェントはRetrieval Augmented Generation(RAG)を使用して、ユーザからの問い合わせに対して検証可能なドキュメント地上応答を提供する。
本稿では,与えられた文書コーパスから,文脈に乱れた多様な質問を効率的に生成する,新しい合成データ生成手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - Optimization of Retrieval-Augmented Generation Context with Outlier Detection [0.0]
そこで本研究では,質問応答システムに必要な文脈の小型化と品質向上に焦点をあてる。
私たちのゴールは、最も意味のあるドキュメントを選択し、捨てられたドキュメントをアウトリーチとして扱うことです。
その結果,質問や回答の複雑さを増大させることで,最大の改善が達成された。
論文 参考訳(メタデータ) (2024-07-01T15:53:29Z) - Automated Evaluation of Retrieval-Augmented Language Models with Task-Specific Exam Generation [9.390902237835457]
検索型大規模言語モデル(RAG)のタスク固有精度を計測する新しい手法を提案する。
複数の選択質問からなる自動生成合成試験において、RAGをスコアリングして評価を行う。
論文 参考訳(メタデータ) (2024-05-22T13:14:11Z) - A Dataset of Open-Domain Question Answering with Multiple-Span Answers [11.291635421662338]
マルチスパン回答抽出(Multi-span answer extract)は、マルチスパン質問応答(MSQA)のタスクとしても知られ、現実世界のアプリケーションにとって重要な課題である。
中国語ではMSQAベンチマークが公開されていない。
CLEANは、中国の総合的なマルチスパン質問応答データセットである。
論文 参考訳(メタデータ) (2024-02-15T13:03:57Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Answer Span Correction in Machine Reading Comprehension [16.82391374339153]
機械読解理解(MRC)は、抽出された回答を入力コンテキストと質問ペアに対して検証する。
以前の研究は、抽出された回答から質問の「答え可能性」を再評価することを検討した。
ここでは,既存のMSCシステムにおいて,解答可能な質問を提示した場合に,部分的に正解が生じる傾向について考察する。
論文 参考訳(メタデータ) (2020-11-06T15:31:07Z) - Tell Me How to Ask Again: Question Data Augmentation with Controllable
Rewriting in Continuous Space [94.8320535537798]
機械読解(MRC)、質問生成、質問答え自然言語推論タスクのための制御可能な書き換えベースの質問データ拡張(CRQDA)。
質問データ拡張タスクを制約付き質問書き換え問題として扱い、コンテキスト関連、高品質、多様な質問データサンプルを生成する。
論文 参考訳(メタデータ) (2020-10-04T03:13:46Z) - ClarQ: A large-scale and diverse dataset for Clarification Question
Generation [67.1162903046619]
そこで我々は,スタックエクスチェンジから抽出したポストコメンデーションに基づいて,多様な,大規模な明確化質問データセットの作成を支援する,新しいブートストラップフレームワークを考案した。
質問応答の下流タスクに適用することで,新たに作成したデータセットの有用性を定量的に示す。
我々はこのデータセットを公開し、ダイアログと質問応答システムの拡張という大きな目標を掲げて、質問生成の分野の研究を促進する。
論文 参考訳(メタデータ) (2020-06-10T17:56:50Z) - Improving Multi-Turn Response Selection Models with Complementary
Last-Utterance Selection by Instance Weighting [84.9716460244444]
我々は、データリソース自体の根底にある相関を利用して、異なる種類の監視信号を導出することを検討する。
2つの公開データセットで広範な実験を行い、両方のデータセットで大幅に改善した。
論文 参考訳(メタデータ) (2020-02-18T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。