論文の概要: Harvesting and Refining Question-Answer Pairs for Unsupervised QA
- arxiv url: http://arxiv.org/abs/2005.02925v1
- Date: Wed, 6 May 2020 15:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:32:36.524211
- Title: Harvesting and Refining Question-Answer Pairs for Unsupervised QA
- Title(参考訳): 補修と補修 -教師なしQAに対する質問応答ペア-
- Authors: Zhongli Li, Wenhui Wang, Li Dong, Furu Wei, Ke Xu
- Abstract要約: 教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
- 参考スコア(独自算出の注目度): 95.9105154311491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question Answering (QA) has shown great success thanks to the availability of
large-scale datasets and the effectiveness of neural models. Recent research
works have attempted to extend these successes to the settings with few or no
labeled data available. In this work, we introduce two approaches to improve
unsupervised QA. First, we harvest lexically and syntactically divergent
questions from Wikipedia to automatically construct a corpus of question-answer
pairs (named as RefQA). Second, we take advantage of the QA model to extract
more appropriate answers, which iteratively refines data over RefQA. We conduct
experiments on SQuAD 1.1, and NewsQA by fine-tuning BERT without access to
manually annotated data. Our approach outperforms previous unsupervised
approaches by a large margin and is competitive with early supervised models.
We also show the effectiveness of our approach in the few-shot learning
setting.
- Abstract(参考訳): 質問応答(qa)は、大規模データセットの可用性とニューラルモデルの有効性によって、大きな成功を収めている。
最近の研究は、これらの成功をほとんど、あるいは全くラベル付きデータなしで設定に拡張しようと試みている。
本研究では,教師なしQAを改善するための2つのアプローチを提案する。
まず,ウィキペディアから語彙的・構文的に異なる質問を抽出し,質問応答対(RefQA)の自動生成を行う。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
我々は手動で注釈付きデータにアクセスすることなくBERTを微調整してSQuAD 1.1とNewsQAで実験を行う。
提案手法は,従来の教師なしアプローチを大きなマージンで上回り,初期の教師付きモデルと競合する。
また,数発の学習環境でのアプローチの有効性を示す。
関連論文リスト
- A Lightweight Method to Generate Unanswerable Questions in English [18.323248259867356]
本稿では,英語における疑問生成のための簡易なデータ拡張手法について検討する。
回答可能な質問に対して、Antonymとエンティティスワップを実行します。
従来の最先端技術と比較すると、トレーニング不要で軽量な戦略で生成されたデータにより、より良いモデルが得られます。
論文 参考訳(メタデータ) (2023-10-30T10:14:52Z) - QASnowball: An Iterative Bootstrapping Framework for High-Quality
Question-Answering Data Generation [67.27999343730224]
QAデータ拡張のための反復型ブートストラップフレームワーク(QASnowball)を導入する。
QASnowballは、教師付きサンプルのシードセットに基づいて、大規模で高品質なQAデータを反復的に生成することができる。
本研究では, 高資源の英語シナリオと中資源の中国語シナリオで実験を行い, 実験結果から, QASnowball が生成したデータによりQAモデルを容易に作成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-19T05:20:36Z) - Toward Unsupervised Realistic Visual Question Answering [70.67698100148414]
現実的なVQA(RVQA)の問題について検討し、モデルが答えられない質問(UQ)を拒絶し、答えられる質問(AQ)に答えなければならない。
1)データセットには不整合UQが多すぎること,(2)多数の注釈付きUQがトレーニングに必要とされること,の2つの欠点を最初に指摘した。
我々は、既存のVQAデータセットのAQと約29万の人間の注釈付きUQを組み合わせた新しいテストデータセットRGQAを提案する。
これは、画像と質問をランダムにペアリングして得られる擬似UQと、それを結合する。
論文 参考訳(メタデータ) (2023-03-09T06:58:29Z) - Closed-book Question Generation via Contrastive Learning [20.644215991166895]
コントラスト学習モジュールと回答再構成モジュールを併用した新しいQGモデルを提案する。
提案手法を応用して,既存のクローズドブックQAシステムを改善する方法について述べる。
論文 参考訳(メタデータ) (2022-10-13T06:45:46Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。