論文の概要: Learning to Rank Question Answer Pairs with Bilateral Contrastive Data
Augmentation
- arxiv url: http://arxiv.org/abs/2106.11096v1
- Date: Mon, 21 Jun 2021 13:29:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 21:37:38.137775
- Title: Learning to Rank Question Answer Pairs with Bilateral Contrastive Data
Augmentation
- Title(参考訳): 双方向コントラストデータ強化による質問応答ペアのランク付け
- Authors: Yang Deng, Wenxuan Zhang, Wai Lam
- Abstract要約: 本稿では,バイラテラル生成(Bilateral Generation, BiG)という,新鮮で使いやすいデータ拡張戦略を提案する。
拡張データセットを用いて、質問応答ペアのランク付けを学習するための対照的な訓練目標を設計する。
TREC-QA,WikiQA,AntiQUEの3つのベンチマークデータセットによる実験結果から,本手法はランキングモデルの性能を大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 39.22166065525888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a novel and easy-to-apply data augmentation
strategy, namely Bilateral Generation (BiG), with a contrastive training
objective for improving the performance of ranking question answer pairs with
existing labeled data. In specific, we synthesize pseudo-positive QA pairs in
contrast to the original negative QA pairs with two pre-trained generation
models, one for question generation, the other for answer generation, which are
fine-tuned on the limited positive QA pairs from the original dataset. With the
augmented dataset, we design a contrastive training objective for learning to
rank question answer pairs. Experimental results on three benchmark datasets,
namely TREC-QA, WikiQA, and ANTIQUE, show that our method significantly
improves the performance of ranking models by making full use of existing
labeled data and can be easily applied to different ranking models.
- Abstract(参考訳): 本研究では,既存のラベル付きデータとランク付けされた質問応答ペアの性能向上を目的とした,新しい,かつ使いやすいデータ拡張戦略,すなわちバイラテラル生成(BiG)を提案する。
具体的には、疑似陽性QAペアを、元のデータセットから限定された正のQAペアを微調整した2つの事前学習された生成モデルと、質問生成モデルと回答生成モデルとの対比して、擬陽性QAペアを合成する。
拡張データセットでは,質問応答ペアのランク付けを学ぶための,対照的なトレーニング目標をデザインする。
TREC-QA,WikiQA,AntiQUEの3つのベンチマークデータセットによる実験結果から,既存のラベル付きデータをフル活用してランキングモデルの性能を大幅に改善し,異なるランキングモデルに容易に適用できることが示唆された。
関連論文リスト
- An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Learning Answer Generation using Supervision from Automatic Question
Answering Evaluators [98.9267570170737]
我々は、自動QA評価モデル(GAVA)の監督を用いたGenQAのための新しいトレーニングパラダイムを提案する。
提案手法を2つの学術的, 1つの産業的データセット上で評価し, 過去の技術状況に対して, 回答精度を大幅に向上させた。
論文 参考訳(メタデータ) (2023-05-24T16:57:04Z) - Generating Self-Contained and Summary-Centric Question Answer Pairs via
Differentiable Reward Imitation Learning [7.2745835227138045]
本稿では,質問応答対(QAペア)を自己完結型,要約型,長さ制約型,記事要約型で生成するモデルを提案する。
このデータセットは、回答として要約を生成するQAペア生成モデルを学ぶために使用される。
論文 参考訳(メタデータ) (2021-09-10T06:34:55Z) - Contrast and Classify: Training Robust VQA Models [60.80627814762071]
本稿では,クロスエントロピーとコントラスト損失の両方を最適化する新しいトレーニングパラダイム(ConClaT)を提案する。
双方の損失を -- 交互に,あるいは共同で -- 最適化することが,効果的なトレーニングの鍵であることに気付きました。
論文 参考訳(メタデータ) (2020-10-13T00:23:59Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。