論文の概要: Automatic question generation based on sentence structure analysis using
machine learning approach
- arxiv url: http://arxiv.org/abs/2205.12811v1
- Date: Wed, 25 May 2022 14:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:50:54.855540
- Title: Automatic question generation based on sentence structure analysis using
machine learning approach
- Title(参考訳): 機械学習を用いた文構造解析に基づく質問自動生成
- Authors: Miroslav Bl\v{s}t\'ak and Viera Rozinajov\'a
- Abstract要約: 本稿では,英語の非構造化テキストから事実質問を生成するための枠組みを紹介する。
文パターンに基づく従来の言語アプローチと、いくつかの機械学習手法を組み合わせる。
フレームワークには、生成された質問の品質を見積もる質問評価モジュールも含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatic question generation is one of the most challenging tasks of Natural
Language Processing. It requires "bidirectional" language processing: firstly,
the system has to understand the input text (Natural Language Understanding)
and it then has to generate questions also in the form of text (Natural
Language Generation). In this article, we introduce our framework for
generating the factual questions from unstructured text in the English
language. It uses a combination of traditional linguistic approaches based on
sentence patterns with several machine learning methods. We firstly obtain
lexical, syntactic and semantic information from an input text and we then
construct a hierarchical set of patterns for each sentence. The set of features
is extracted from the patterns and it is then used for automated learning of
new transformation rules. Our learning process is totally data-driven because
the transformation rules are obtained from a set of initial sentence-question
pairs. The advantages of this approach lie in a simple expansion of new
transformation rules which allows us to generate various types of questions and
also in the continuous improvement of the system by reinforcement learning. The
framework also includes a question evaluation module which estimates the
quality of generated questions. It serves as a filter for selecting the best
questions and eliminating incorrect ones or duplicates. We have performed
several experiments to evaluate the correctness of generated questions and we
have also compared our system with several state-of-the-art systems. Our
results indicate that the quality of generated questions outperforms the
state-of-the-art systems and our questions are also comparable to questions
created by humans. We have also created and published an interface with all
created datasets and evaluated questions, so it is possible to follow up on our
work.
- Abstract(参考訳): 自動質問生成は自然言語処理の最も難しいタスクの1つである。
まず、システムは入力テキスト(自然言語理解)を理解し、それからテキスト(自然言語生成)という形式で質問を生成する必要があります。
本稿では,英語の非構造化テキストから事実的疑問文を生成するための枠組みを提案する。
文パターンに基づく従来の言語アプローチと、いくつかの機械学習手法を組み合わせる。
まず、入力テキストから語彙、構文、意味情報を取得し、各文に対して階層的なパターン群を構築する。
一連の機能はパターンから抽出され、新しい変換ルールの自動学習に使用される。
我々の学習プロセスは完全にデータ駆動である、なぜなら変換規則は初期文検索ペアの集合から得られるからである。
このアプローチの利点は、様々な種類の質問を生成できるような、新しい変換規則の単純な拡張と、強化学習によるシステムの継続的な改善にある。
フレームワークには、生成された質問の品質を見積もる質問評価モジュールも含まれている。
最良の質問を選択し、間違った質問や重複を取り除くフィルターとして機能する。
我々は,生成した質問の正確性を評価する実験を複数実施し,本システムを最先端システムと比較した。
その結果, 生成した質問の品質は最先端のシステムよりも優れており, 質問は人間による質問に匹敵することがわかった。
また、作成したすべてのデータセットと評価された質問を備えたインターフェースを作成し、公開しています。
関連論文リスト
- SkillQG: Learning to Generate Question for Reading Comprehension
Assessment [54.48031346496593]
本稿では,機械読解モデルの評価と改善を目的とした,制御可能な理解型を用いた質問生成フレームワークを提案する。
まず、階層的なスキルベースのスキーマに基づいて理解型の質問をフレーム化し、その後、スキル条件付き質問生成器として$textttSkillQG$を定式化する。
経験的な結果から、$textttSkillQG$は、品質、妥当性、スキル制御性という点でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-08T14:40:48Z) - Using Implicit Feedback to Improve Question Generation [4.4250613854221905]
質問生成(QG)は、テキストから質問を自動的に生成することを目的とした自然言語処理(NLP)のタスクである。
本研究では,そのような(単純な)フィードバックから学習するシステム GEN を提案する。
その結果、GENは学習のないバージョンと比較して暗黙のフィードバックの両レベルから学習することで改善できることがわかった。
論文 参考訳(メタデータ) (2023-04-26T16:37:47Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - I Do Not Understand What I Cannot Define: Automatic Question Generation
With Pedagogically-Driven Content Selection [0.08602553195689512]
学習者が何を読んでいるかという質問は、テキスト理解を育むための確立した方法である。
多くの教科書では、執筆に時間がかかり高価であるため、自己評価の疑問が欠落している。
本稿では,任意の教科書内容の質問文や回答を見つけるための,教育学的に意味のあるコンテンツ選択機構を提案する。
論文 参考訳(メタデータ) (2021-10-08T13:29:13Z) - Evaluating the Morphosyntactic Well-formedness of Generated Texts [88.20502652494521]
L'AMBRE – テキストのモルフォシンタク的整形性を評価する指標を提案する。
形態的に豊かな言語に翻訳するシステムのダイアクロニックスタディを通じて,機械翻訳作業におけるメトリックの有効性を示す。
論文 参考訳(メタデータ) (2021-03-30T18:02:58Z) - Understanding Unnatural Questions Improves Reasoning over Text [54.235828149899625]
生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
論文 参考訳(メタデータ) (2020-10-19T10:22:16Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Syn-QG: Syntactic and Shallow Semantic Rules for Question Generation [49.671882751569534]
我々は、宣言文を質問応答対に変換する透明な統語規則であるSynQGを開発した。
PropBankの引数記述とVerbNet状態述語を利用して、浅いセマンティックコンテンツを組み込む。
文法的不正確な質問を排除し,構文の流布性を改善するために,これらの構文規則のアウトプットを逆翻訳する。
論文 参考訳(メタデータ) (2020-04-18T19:57:39Z) - Asking Questions the Human Way: Scalable Question-Answer Generation from
Text Corpus [23.676748207014903]
問合せ型質問生成(ACS-QG)を提案する。
ラベルなしテキストコーパスから高品質で多様な質問応答ペアを大規模に自動生成することを目的としている。
ウィキペディアで見つかった100万の文から、280万の質保証された質問応答ペアを生成することができる。
論文 参考訳(メタデータ) (2020-01-27T05:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。