論文の概要: Using Implicit Feedback to Improve Question Generation
- arxiv url: http://arxiv.org/abs/2304.13664v1
- Date: Wed, 26 Apr 2023 16:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 13:31:39.443247
- Title: Using Implicit Feedback to Improve Question Generation
- Title(参考訳): インシシットフィードバックによる質問生成の改善
- Authors: Hugo Rodrigues, Eric Nyberg, Luisa Coheur
- Abstract要約: 質問生成(QG)は、テキストから質問を自動的に生成することを目的とした自然言語処理(NLP)のタスクである。
本研究では,そのような(単純な)フィードバックから学習するシステム GEN を提案する。
その結果、GENは学習のないバージョンと比較して暗黙のフィードバックの両レベルから学習することで改善できることがわかった。
- 参考スコア(独自算出の注目度): 4.4250613854221905
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Question Generation (QG) is a task of Natural Language Processing (NLP) that
aims at automatically generating questions from text. Many applications can
benefit from automatically generated questions, but often it is necessary to
curate those questions, either by selecting or editing them. This task is
informative on its own, but it is typically done post-generation, and, thus,
the effort is wasted. In addition, most existing systems cannot incorporate
this feedback back into them easily. In this work, we present a system, GEN,
that learns from such (implicit) feedback. Following a pattern-based approach,
it takes as input a small set of sentence/question pairs and creates patterns
which are then applied to new unseen sentences. Each generated question, after
being corrected by the user, is used as a new seed in the next iteration, so
more patterns are created each time. We also take advantage of the corrections
made by the user to score the patterns and therefore rank the generated
questions. Results show that GEN is able to improve by learning from both
levels of implicit feedback when compared to the version with no learning,
considering the top 5, 10, and 20 questions. Improvements go up from 10%,
depending on the metric and strategy used.
- Abstract(参考訳): 質問生成(QG)は、テキストから質問を自動的に生成することを目的とした自然言語処理(NLP)のタスクである。
多くのアプリケーションは自動生成された質問の恩恵を受けることができるが、それらの質問を選択または編集することでキュレートする必要があることが多い。
このタスクは独力で情報を提供するが、通常はポストジェネレーションによって行われるので、努力は無駄になる。
さらに、既存のシステムでは、これらのフィードバックを簡単に取り戻せません。
本研究では,そのような(単純な)フィードバックから学習するシステム GEN を提案する。
パターンベースのアプローチに従うと、少数の文/問合せペアが入力され、新しい未知の文に適用されるパターンを生成する。
生成された各質問は、ユーザが修正した後、次のイテレーションで新しいシードとして使用され、毎回より多くのパターンが生成される。
また,ユーザによる修正を利用してパターンをスコア付けし,生成した質問をランク付けする。
その結果,トップ5,10,20の質問を考慮し,学習のないバージョンと比較して,暗黙的なフィードバックの両レベルから学習することで改善できることがわかった。
改善は、使用するメトリックと戦略によって10%から向上します。
関連論文リスト
- Diversity Enhanced Narrative Question Generation for Storybooks [4.043005183192124]
マルチクエスト生成モデル(mQG)を導入し,複数の,多様な,回答可能な質問を生成する。
生成した質問の応答性を検証するために,SQuAD2.0の微調整された質問応答モデルを用いる。
mQGは、強力なベースラインの中で、様々な評価指標で有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T08:10:04Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - SkillQG: Learning to Generate Question for Reading Comprehension
Assessment [54.48031346496593]
本稿では,機械読解モデルの評価と改善を目的とした,制御可能な理解型を用いた質問生成フレームワークを提案する。
まず、階層的なスキルベースのスキーマに基づいて理解型の質問をフレーム化し、その後、スキル条件付き質問生成器として$textttSkillQG$を定式化する。
経験的な結果から、$textttSkillQG$は、品質、妥当性、スキル制御性という点でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-08T14:40:48Z) - Answer ranking in Community Question Answering: a deep learning approach [0.0]
本研究は, 地域質問回答の回答ランキングを, 深層学習のアプローチで進めることによって, 技術の現状を推し進めるものである。
Stack OverflowのWebサイトにポストされた質問と回答の大規模なデータセットを作成しました。
我々は,高密度埋め込みとLSTMネットワークの自然言語処理機能を利用して,受理された応答属性の予測を行った。
論文 参考訳(メタデータ) (2022-10-16T18:47:41Z) - Automatic question generation based on sentence structure analysis using
machine learning approach [0.0]
本稿では,英語の非構造化テキストから事実質問を生成するための枠組みを紹介する。
文パターンに基づく従来の言語アプローチと、いくつかの機械学習手法を組み合わせる。
フレームワークには、生成された質問の品質を見積もる質問評価モジュールも含まれている。
論文 参考訳(メタデータ) (2022-05-25T14:35:29Z) - Quiz Design Task: Helping Teachers Create Quizzes with Automated
Question Generation [87.34509878569916]
本稿では,教師が読解クイズを自動生成するためのユースケースに焦点を当てた。
本研究は,クイズを構築中の教師が質問を受講し,それに応じるか,あるいは拒否するかのどちらかを理由として行う。
論文 参考訳(メタデータ) (2022-05-03T18:59:03Z) - Exploring Question-Specific Rewards for Generating Deep Questions [42.243227323241584]
我々は、生成した質問の流布度、妥当性、回答可能性を改善するために、ターゲットとする3つの異なる報酬を設計する。
質問固有報酬の最適化は、一般的に自動評価指標の性能向上につながる。
論文 参考訳(メタデータ) (2020-11-02T16:37:30Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Sequence-to-Sequence Learning for Indonesian Automatic Question
Generator [0.0]
インドネシア語の自動質問生成装置を構築し、以前の研究からアーキテクチャを適用した。
BLEU1, BLEU2, BLEU3, BLEU4, ROUGE-Lスコアは38,35, 2096, 10,68, 5,78, 43,4であり、TyDiQAは39.9, 20.78, 10.26, 6.31, 44.13であった。
論文 参考訳(メタデータ) (2020-09-29T09:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。