論文の概要: Unified Question Generation with Continual Lifelong Learning
- arxiv url: http://arxiv.org/abs/2201.09696v1
- Date: Mon, 24 Jan 2022 14:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 14:03:04.244020
- Title: Unified Question Generation with Continual Lifelong Learning
- Title(参考訳): 連続学習による一貫した質問生成
- Authors: Wei Yuan, Hongzhi Yin, Tieke He, Tong Chen, Qiufeng Wang, Lizhen Cui
- Abstract要約: 既存のQGメソッドは主に、特定のQGデータセットの構築やトレーニングに重点を置いている。
本稿では,生涯学習技術に基づくUnifiedQGというモデルを提案し,QGタスクを継続的に学習する。
さらに,1つの訓練済みUnified-QGモデルの能力を変化させて,QAシステムの性能を8ドル(約8,800円)で向上させる。
- 参考スコア(独自算出の注目度): 41.81627903996791
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Question Generation (QG), as a challenging Natural Language Processing task,
aims at generating questions based on given answers and context. Existing QG
methods mainly focus on building or training models for specific QG datasets.
These works are subject to two major limitations: (1) They are dedicated to
specific QG formats (e.g., answer-extraction or multi-choice QG), therefore, if
we want to address a new format of QG, a re-design of the QG model is required.
(2) Optimal performance is only achieved on the dataset they were just trained
on. As a result, we have to train and keep various QG models for different QG
datasets, which is resource-intensive and ungeneralizable.
To solve the problems, we propose a model named Unified-QG based on lifelong
learning techniques, which can continually learn QG tasks across different
datasets and formats. Specifically, we first build a format-convert encoding to
transform different kinds of QG formats into a unified representation. Then, a
method named \emph{STRIDER} (\emph{S}imilari\emph{T}y \emph{R}egular\emph{I}zed
\emph{D}ifficult \emph{E}xample \emph{R}eplay) is built to alleviate
catastrophic forgetting in continual QG learning. Extensive experiments were
conducted on $8$ QG datasets across $4$ QG formats (answer-extraction,
answer-abstraction, multi-choice, and boolean QG) to demonstrate the
effectiveness of our approach. Experimental results demonstrate that our
Unified-QG can effectively and continually adapt to QG tasks when datasets and
formats vary. In addition, we verify the ability of a single trained Unified-QG
model in improving $8$ Question Answering (QA) systems' performance through
generating synthetic QA data.
- Abstract(参考訳): 自然言語処理タスクとしての質問生成(qg)は、与えられた回答と文脈に基づいて質問を生成することを目的としている。
既存のQGメソッドは主に、特定のQGデータセットの構築やトレーニングに重点を置いている。
これらの作品は、(1)特定のqgフォーマット(例えば、応答抽出やマルチチョイスqg)に特化しているため、qgの新しいフォーマットに対処したい場合は、qgモデルの再設計が必要である。
2) 最適なパフォーマンスは、トレーニングしたばかりのデータセットでのみ達成されます。
その結果、様々なQGデータセットに対する様々なQGモデルをトレーニングし、維持する必要がある。
そこで本研究では,生涯学習技術に基づくUnified-QGというモデルを提案する。
具体的には、まずフォーマット変換エンコーディングを構築し、さまざまな種類のqgフォーマットを統一表現に変換する。
次に、連続QG学習における破滅的忘れを緩和するために、 \emph{StriDER} (\emph{S}imilari\emph{T}y \emph{R}egular\emph{I}zed \emph{D}ifficult \emph{E}xample \emph{R}eplay) と呼ばれる方法を構築する。
4ドルのqgフォーマット(answer-extraction, answer-abstraction, multi-choice, boolean qg)で8ドルのqgデータセットで広範な実験を行い、このアプローチの有効性を実証した。
実験の結果,データセットやフォーマットが変化すると,我々の統一QGはQGタスクに効果的かつ継続的に適応できることがわかった。
さらに,1つの訓練された統一QGモデルが,合成QAデータを生成することで,QAシステムの性能を8ドルに向上する能力を検証する。
関連論文リスト
- Graph Guided Question Answer Generation for Procedural
Question-Answering [29.169773816553153]
本稿では,タスク固有質問応答(QA)モデルのための,完全かつ高品質なトレーニングデータを生成する方法を提案する。
キーテクノロジー・イネーブルは、手続き的テキストから質問応答自動生成のための新しいメカニズムである。
GPT3 や ChatGPT を超越しても,本データを用いて訓練した小型モデルは,目標QA タスクにおいて優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-01-24T17:01:42Z) - Davidsonian Scene Graph: Improving Reliability in Fine-grained Evaluation for Text-to-Image Generation [64.64849950642619]
テキスト・ツー・イメージ・モデルを評価するための形式的意味論にインスパイアされた評価フレームワークを開発する。
Davidsonian Scene Graph (DSG) が依存性グラフにまとめられた原子的およびユニークな質問を生成することを示す。
また,1060個のプロンプトを含むオープンソースの評価ベンチマークDSG-1kを提案する。
論文 参考訳(メタデータ) (2023-10-27T16:20:10Z) - Generative Language Models for Paragraph-Level Question Generation [79.31199020420827]
強力な生成モデルが質問生成(QG)の最近の進歩につながっている
標準化された資源が存在しないため,QG研究の進歩を測定することは困難である。
我々はQGのベンチマークであるQG-Benchを導入し、既存のQGデータセットを標準QG設定に変換することで、既存の質問応答データセットを統一する。
論文 参考訳(メタデータ) (2022-10-08T10:24:39Z) - QA4QG: Using Question Answering to Constrain Multi-Hop Question
Generation [54.136509061542775]
マルチホップ質問生成(MQG)は、入力パスの複数の情報に対する推論を必要とする複雑な質問を生成することを目的としている。
MQGのためのQA強化BARTベースのフレームワークであるQA4QGを提案する。
HotpotQAデータセットの結果は、QA4QGがすべての最先端モデルより優れていることを示している。
論文 参考訳(メタデータ) (2022-02-14T08:16:47Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - EQG-RACE: Examination-Type Question Generation [21.17100754955864]
本論文では, RACEから抽出したデータセットをもとに, 試験型質問生成手法 (EQG-RACE) を提案する。
EQG-RACEでは、離散的な回答情報を扱うための2つの主要な戦略と、長い文脈における推論が採用されています。
実験結果は、ベースラインよりも優れたEQG-RACEの最先端の性能を示しています。
論文 参考訳(メタデータ) (2020-12-11T03:52:17Z) - UnifiedQA: Crossing Format Boundaries With a Single QA System [84.63376743920003]
私たちが教えようとしている推論能力は形式によって支配されないので、このような境界は人工的であり、おそらく不要である、と我々は主張する。
トレーニング済みの1つのQAモデルUnifiedQAを構築しました。
論文 参考訳(メタデータ) (2020-05-02T04:42:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。