論文の概要: UnifiedQA: Crossing Format Boundaries With a Single QA System
- arxiv url: http://arxiv.org/abs/2005.00700v3
- Date: Wed, 7 Oct 2020 03:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 11:39:31.329479
- Title: UnifiedQA: Crossing Format Boundaries With a Single QA System
- Title(参考訳): UnifiedQA: 単一QAシステムによるフォーマット境界のクロス
- Authors: Daniel Khashabi, Sewon Min, Tushar Khot, Ashish Sabharwal, Oyvind
Tafjord, Peter Clark, Hannaneh Hajishirzi
- Abstract要約: 私たちが教えようとしている推論能力は形式によって支配されないので、このような境界は人工的であり、おそらく不要である、と我々は主張する。
トレーニング済みの1つのQAモデルUnifiedQAを構築しました。
- 参考スコア(独自算出の注目度): 84.63376743920003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question answering (QA) tasks have been posed using a variety of formats,
such as extractive span selection, multiple choice, etc. This has led to
format-specialized models, and even to an implicit division in the QA
community. We argue that such boundaries are artificial and perhaps
unnecessary, given the reasoning abilities we seek to teach are not governed by
the format. As evidence, we use the latest advances in language modeling to
build a single pre-trained QA model, UnifiedQA, that performs surprisingly well
across 17 QA datasets spanning 4 diverse formats. UnifiedQA performs on par
with 9 different models that were trained on individual datasets themselves.
Even when faced with 12 unseen datasets of observed formats, UnifiedQA performs
surprisingly well, showing strong generalization from its out-of-format
training data. Finally, simply fine-tuning this pre-trained QA model into
specialized models results in a new state of the art on 6 datasets,
establishing UnifiedQA as a strong starting point for building QA systems.
- Abstract(参考訳): 質問応答(QA)タスクは、抽出スパンの選択、複数選択など、さまざまなフォーマットを使用して提案されている。
これはフォーマット特化モデルにつながり、QAコミュニティの暗黙の分裂にも繋がった。
私たちが教えようとしている推論能力は形式によって支配されないので、このような境界は人工的であり、おそらく不要であると主張する。
証拠として、言語モデリングの最新の進歩を使って、トレーニング済みの1つのQAモデル、UnifiedQAを構築します。
UnifiedQAは、個々のデータセット自身でトレーニングされた9つの異なるモデルと同等に動作する。
12の目に見えないフォーマットのデータセットに直面しても、UnifiedQAは驚くほどよく機能し、アウトオブフォーマルなトレーニングデータから強力な一般化を示している。
最後に、トレーニング済みのこのQAモデルを特別なモデルに微調整するだけで、6つのデータセットの新たな状態が得られ、UnifiedQAがQAシステム構築の強力な出発点として確立される。
関連論文リスト
- Graph Guided Question Answer Generation for Procedural
Question-Answering [29.169773816553153]
本稿では,タスク固有質問応答(QA)モデルのための,完全かつ高品質なトレーニングデータを生成する方法を提案する。
キーテクノロジー・イネーブルは、手続き的テキストから質問応答自動生成のための新しいメカニズムである。
GPT3 や ChatGPT を超越しても,本データを用いて訓練した小型モデルは,目標QA タスクにおいて優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-01-24T17:01:42Z) - GSQA: An End-to-End Model for Generative Spoken Question Answering [54.418723701886115]
本稿では,システムに抽象的推論を強制するGSQA(Generative Spoken Question Answering)モデルを提案する。
本モデルでは, 抽出QAデータセットにおいて, 従来の抽出モデルよりも3%上回っている。
我々のGSQAモデルは、幅広い質問に一般化する可能性を示し、それによって、抽象的QAの音声質問応答能力をさらに拡張する。
論文 参考訳(メタデータ) (2023-12-15T13:33:18Z) - Long-Tailed Question Answering in an Open World [46.67715607552547]
我々は、Long-Tailed QA (OLTQA) を、長い尾の分散データから学習するものとして定義する。
OLTQAモデルを提案し,頭,尾,目立たないタスク間の知識共有を促進する。
大規模なOLTQAデータセットでは、我々のモデルは一貫して最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-11T04:28:58Z) - Towards a Unified Model for Generating Answers and Explanations in
Visual Question Answering [11.754328280233628]
我々は、QAモデルとは無関係なトレーニング説明モデルにより、説明の根拠が減り、性能が制限されると主張している。
本稿では,統一モデルに対するマルチタスク学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-25T19:29:19Z) - QA4QG: Using Question Answering to Constrain Multi-Hop Question
Generation [54.136509061542775]
マルチホップ質問生成(MQG)は、入力パスの複数の情報に対する推論を必要とする複雑な質問を生成することを目的としている。
MQGのためのQA強化BARTベースのフレームワークであるQA4QGを提案する。
HotpotQAデータセットの結果は、QA4QGがすべての最先端モデルより優れていることを示している。
論文 参考訳(メタデータ) (2022-02-14T08:16:47Z) - Unified Question Generation with Continual Lifelong Learning [41.81627903996791]
既存のQGメソッドは主に、特定のQGデータセットの構築やトレーニングに重点を置いている。
本稿では,生涯学習技術に基づくUnifiedQGというモデルを提案し,QGタスクを継続的に学習する。
さらに,1つの訓練済みUnified-QGモデルの能力を変化させて,QAシステムの性能を8ドル(約8,800円)で向上させる。
論文 参考訳(メタデータ) (2022-01-24T14:05:18Z) - Learning to Perturb Word Embeddings for Out-of-distribution QA [55.103586220757464]
本論文では,入力問題と文脈の単語埋め込みを意味論を変化させることなく学習するノイズ発生器に基づく簡便かつ効果的なDA法を提案する。
ひとつのソースデータセットに,5つの異なるターゲットドメインに埋め込むことで,トレーニングされたQAモデルのパフォーマンスを検証する。
特に、私たちのトレーニングを受けたモデルは、240K以上の人工的なQAペアでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-06T14:12:26Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。