論文の概要: Automated question generation and question answering from Turkish texts
using text-to-text transformers
- arxiv url: http://arxiv.org/abs/2111.06476v1
- Date: Thu, 11 Nov 2021 22:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 14:20:20.707232
- Title: Automated question generation and question answering from Turkish texts
using text-to-text transformers
- Title(参考訳): テキスト・テキスト変換器を用いたトルコ語テキストからの質問自動生成と質問応答
- Authors: Fatih Cagatay Akyon, Devrim Cavusoglu, Cemil Cengiz, Sinan Onur
Altinuc, Alptekin Temizel
- Abstract要約: 我々は、QA、QG、解答抽出タスクのためのマルチタスク設定において、多言語T5(mT5)変換器を微調整する。
これは、トルコ語のテキストからテキストからテキストへの質問の自動生成を試みている最初の学術研究である。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While exam-style questions are a fundamental educational tool serving a
variety of purposes, manual construction of questions is a complex process that
requires training, experience and resources. To reduce the expenses associated
with the manual construction of questions and to satisfy the need for a
continuous supply of new questions, automatic question generation (QG)
techniques can be utilized. However, compared to automatic question answering
(QA), QG is a more challenging task. In this work, we fine-tune a multilingual
T5 (mT5) transformer in a multi-task setting for QA, QG and answer extraction
tasks using a Turkish QA dataset. To the best of our knowledge, this is the
first academic work that attempts to perform automated text-to-text question
generation from Turkish texts. Evaluation results show that the proposed
multi-task setting achieves state-of-the-art Turkish question answering and
question generation performance over TQuADv1, TQuADv2 datasets and XQuAD
Turkish split. The source code and pre-trained models are available at
https://github.com/obss/turkish-question-generation.
- Abstract(参考訳): 試験スタイルの質問は、様々な目的に役立ち、基本的な教育ツールであるが、質問の手動構築は、訓練、経験、リソースを必要とする複雑なプロセスである。
質問のマニュアル作成に伴うコストを削減し、新たな質問の継続的な供給の必要性を満たすために、自動質問生成(QG)技術を利用することができる。
しかしながら、自動質問応答(QA)と比較して、QGはより難しい課題である。
本研究では、トルコのQAデータセットを用いて、QA、QG、回答抽出タスクのためのマルチタスク設定でマルチ言語T5(mT5)変換器を微調整する。
我々の知る限りでは、トルコ語テキストからテキストからテキストへの質問の自動生成を試みている最初の学術研究である。
評価の結果,提案手法により,TQuADv1,TQuADv2データセット,XQuADトルコ分割に対する質問応答と質問生成性能が得られた。
ソースコードと事前学習されたモデルはhttps://github.com/obss/turkish-question-generationで入手できる。
関連論文リスト
- Harnessing the Power of Prompt-based Techniques for Generating
School-Level Questions using Large Language Models [0.5459032912385802]
本稿では,プロンプトベースの手法を用いて記述的および推論的質問を生成する手法を提案する。
我々は,NCERT教科書のリッチコンテンツを活用することで,学校レベルの課題を対象とした新しいQGデータセットEduProbeをキュレートする。
変換器をベースとした大規模言語モデルを用いて,いくつかのプロンプトベースのQG手法について検討する。
論文 参考訳(メタデータ) (2023-12-02T05:13:28Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - XOR QA: Cross-lingual Open-Retrieval Question Answering [75.20578121267411]
この作業は、言語横断的な設定に応答するオープン検索の質問を拡張します。
我々は,同じ回答を欠いた質問に基づいて,大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2020-10-22T16:47:17Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z) - Understanding Unnatural Questions Improves Reasoning over Text [54.235828149899625]
生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
論文 参考訳(メタデータ) (2020-10-19T10:22:16Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Tell Me How to Ask Again: Question Data Augmentation with Controllable
Rewriting in Continuous Space [94.8320535537798]
機械読解(MRC)、質問生成、質問答え自然言語推論タスクのための制御可能な書き換えベースの質問データ拡張(CRQDA)。
質問データ拡張タスクを制約付き質問書き換え問題として扱い、コンテキスト関連、高品質、多様な質問データサンプルを生成する。
論文 参考訳(メタデータ) (2020-10-04T03:13:46Z) - Simplifying Paragraph-level Question Generation via Transformer Language
Models [0.0]
質問生成(QG)は、ある入力テキストに対応する質問をモデルに訓練する自然言語生成タスクである。
1つのTransformerベースの一方向言語モデルで、トランスファーラーニングを利用して高品質な質問を生成することができる。
我々のQGモデルは、GPT-2 Smallから微調整され、SQuADデータセット上のいくつかの段落レベルのQGベースラインを0.95 METEORポイントで上回る。
論文 参考訳(メタデータ) (2020-05-03T14:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。