論文の概要: A Practical Toolkit for Multilingual Question and Answer Generation
- arxiv url: http://arxiv.org/abs/2305.17416v1
- Date: Sat, 27 May 2023 08:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 19:37:21.159107
- Title: A Practical Toolkit for Multilingual Question and Answer Generation
- Title(参考訳): 多言語質問と回答生成のための実践的ツールキット
- Authors: Asahi Ushio and Fernando Alva-Manchego and Jose Camacho-Collados
- Abstract要約: 我々は,マルチ言語QAGのオンラインサービスであるAutoQGと,モデル微調整,生成,評価のためのオールインワンPythonパッケージであるlmqgを紹介した。
また、事前訓練されたエンコーダ-デコーダ言語モデルのいくつかの変種を微調整した8言語でQAGモデルをリリースしています。
- 参考スコア(独自算出の注目度): 79.31199020420827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating questions along with associated answers from a text has
applications in several domains, such as creating reading comprehension tests
for students, or improving document search by providing auxiliary questions and
answers based on the query. Training models for question and answer generation
(QAG) is not straightforward due to the expected structured output (i.e. a list
of question and answer pairs), as it requires more than generating a single
sentence. This results in a small number of publicly accessible QAG models. In
this paper, we introduce AutoQG, an online service for multilingual QAG, along
with lmqg, an all-in-one Python package for model fine-tuning, generation, and
evaluation. We also release QAG models in eight languages fine-tuned on a few
variants of pre-trained encoder-decoder language models, which can be used
online via AutoQG or locally via lmqg. With these resources, practitioners of
any level can benefit from a toolkit that includes a web interface for end
users, and easy-to-use code for developers who require custom models or
fine-grained controls for generation.
- Abstract(参考訳): テキストからの質問の生成と関連する回答は、学生向けの読解テストの作成や、クエリに基づいた補助的な質問や回答を提供することによる文書検索の改善など、いくつかの領域で応用されている。
質問と回答の生成のためのトレーニングモデル(QAG)は、期待される構造化された出力(すなわち質問と回答のペアのリスト)のため簡単ではない。
これにより、少数の公開アクセス可能なQAGモデルが得られる。
本稿では,マルチ言語QAGのオンラインサービスであるAutoQGと,モデル微調整,生成,評価のためのオールインワンPythonパッケージであるlmqgを紹介する。
また、事前訓練されたエンコーダ-デコーダ言語モデルのいくつかの変種を微調整した8言語でQAGモデルをリリースしています。
これらのリソースにより、あらゆるレベルの実践者は、エンドユーザのためのwebインターフェースや、カスタムモデルや生成のためのきめ細かいコントロールを必要とする開発者にとって使いやすいコードを含むツールキットの恩恵を受けることができる。
関連論文リスト
- Cross-lingual Transfer for Automatic Question Generation by Learning Interrogative Structures in Target Languages [6.635572580071933]
本稿では,モノリンガル,並列,ラベル付きデータを対象言語で必要とせずに動作可能な,単純かつ効率的なXLT-QG法を提案する。
提案手法は,GPT-3.5-turboに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-10-04T07:29:35Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Answer Candidate Type Selection: Text-to-Text Language Model for Closed
Book Question Answering Meets Knowledge Graphs [62.20354845651949]
本稿では,この問題を解決するために,事前学習されたテキスト間QAシステム上で機能する新しいアプローチを提案する。
提案手法は,Wikidataの"instance_of"プロパティの型に基づいて,生成した候補のフィルタリングと再ランク付けを行う。
論文 参考訳(メタデータ) (2023-10-10T20:49:43Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Generative Language Models for Paragraph-Level Question Generation [79.31199020420827]
強力な生成モデルが質問生成(QG)の最近の進歩につながっている
標準化された資源が存在しないため,QG研究の進歩を測定することは困難である。
我々はQGのベンチマークであるQG-Benchを導入し、既存のQGデータセットを標準QG設定に変換することで、既存の質問応答データセットを統一する。
論文 参考訳(メタデータ) (2022-10-08T10:24:39Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z) - Fluent Response Generation for Conversational Question Answering [15.826109118064716]
本稿では,SEQ2SEQ NLGアプローチで応答をシチュレートする手法を提案する。
我々は、エンドツーエンドシステムのトレーニングデータを生成するためにデータ拡張を使用します。
論文 参考訳(メタデータ) (2020-05-21T04:57:01Z) - Simplifying Paragraph-level Question Generation via Transformer Language
Models [0.0]
質問生成(QG)は、ある入力テキストに対応する質問をモデルに訓練する自然言語生成タスクである。
1つのTransformerベースの一方向言語モデルで、トランスファーラーニングを利用して高品質な質問を生成することができる。
我々のQGモデルは、GPT-2 Smallから微調整され、SQuADデータセット上のいくつかの段落レベルのQGベースラインを0.95 METEORポイントで上回る。
論文 参考訳(メタデータ) (2020-05-03T14:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。