論文の概要: UnifiedQA-v2: Stronger Generalization via Broader Cross-Format Training
- arxiv url: http://arxiv.org/abs/2202.12359v1
- Date: Wed, 23 Feb 2022 18:34:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 14:15:47.536403
- Title: UnifiedQA-v2: Stronger Generalization via Broader Cross-Format Training
- Title(参考訳): UnifiedQA-v2:Broader Cross-Format Trainingによるより強力な一般化
- Authors: Daniel Khashabi, Yeganeh Kordi, Hannaneh Hajishirzi
- Abstract要約: We present UnifiedQA-v2, a QA model built on the same process as UnifiedQA。
監視が強化され、UnifiedQAで使用されるデータセットの約3倍になる。
- 参考スコア(独自算出の注目度): 46.65062276387052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present UnifiedQA-v2, a QA model built with the same process as UnifiedQA,
except that it utilizes more supervision -- roughly 3x the number of datasets
used for UnifiedQA. This generally leads to better in-domain and cross-domain
results.
- Abstract(参考訳): 私たちはUnifiedQA-v2という,UnifiedQAと同じプロセスで構築されたQAモデルを紹介します。
これは一般的にドメイン内とクロスドメインの結果を改善する。
関連論文リスト
- TrustUQA: A Trustful Framework for Unified Structured Data Question Answering [45.480862651323115]
信頼性の高いQAフレームワークであるUnifiedTQAを提案する。
我々は,3種類の構造化データを対象とした5つのベンチマークでUnifiedTQAを評価した。
既存の2つの構造化されたデータQAメソッドを上回り、データタイプ固有のベースラインと比較すると、そのうち2つが最先端である。
論文 参考訳(メタデータ) (2024-06-27T06:13:05Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - A Pipeline for Generating, Annotating and Employing Synthetic Data for
Real World Question Answering [21.897002626924348]
質問回答(QA: Question Answering)は、文書から情報を取り出すのに役立つ研究分野である。
本稿では,ドメイン一般モデルを用いて,合成ドメイン固有データセットを容易に生成できることを実証する。
論文 参考訳(メタデータ) (2022-11-30T13:24:30Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - UnifiedQA: Crossing Format Boundaries With a Single QA System [84.63376743920003]
私たちが教えようとしている推論能力は形式によって支配されないので、このような境界は人工的であり、おそらく不要である、と我々は主張する。
トレーニング済みの1つのQAモデルUnifiedQAを構築しました。
論文 参考訳(メタデータ) (2020-05-02T04:42:14Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。