論文の概要: Controllable Open-ended Question Generation with A New Question Type
Ontology
- arxiv url: http://arxiv.org/abs/2107.00152v1
- Date: Thu, 1 Jul 2021 00:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-03 03:03:41.554377
- Title: Controllable Open-ended Question Generation with A New Question Type
Ontology
- Title(参考訳): 新しい質問型オントロジーを用いた制御可能なオープンエンド質問生成
- Authors: Shuyang Cao and Lu Wang
- Abstract要約: 複数の文で通常答えられるオープンエンドな質問を生成するという,探索の少ない課題について検討する。
まず、広く使われている質問語よりも、質問のニュアンスの性質をよりよく区別する新しい質問型オントロジーを定義する。
次に,意味グラフ表現によって拡張された質問型認識型質問生成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.017006996402699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the less-explored task of generating open-ended questions that
are typically answered by multiple sentences. We first define a new question
type ontology which differentiates the nuanced nature of questions better than
widely used question words. A new dataset with 4,959 questions is labeled based
on the new ontology. We then propose a novel question type-aware question
generation framework, augmented by a semantic graph representation, to jointly
predict question focuses and produce the question. Based on this framework, we
further use both exemplars and automatically generated templates to improve
controllability and diversity. Experiments on two newly collected large-scale
datasets show that our model improves question quality over competitive
comparisons based on automatic metrics. Human judges also rate our model
outputs highly in answerability, coverage of scope, and overall quality.
Finally, our model variants with templates can produce questions with enhanced
controllability and diversity.
- Abstract(参考訳): 本研究は,複数文で回答されるオープンエンド質問生成の難解な課題について検討する。
まず,質問のニュアンスの性質を広く使われる質問語と区別する新しい質問型オントロジーを定義する。
4,959の質問からなる新しいデータセットは、新しいオントロジーに基づいてラベル付けされる。
次に,意味グラフ表現によって拡張された新しい質問型質問生成フレームワークを提案し,質問焦点の予測と質問の生成を行う。
このフレームワークに基づいて、制御性と多様性を改善するために、模範と自動生成テンプレートの両方を使用します。
新たに収集された2つの大規模データセットに対する実験により,自動メトリクスに基づく競合比較よりも質問品質が向上することが示された。
人間の判断は、我々のモデルが高い回答率、スコープの範囲、全体的な品質を評価します。
最後に、テンプレートを用いたモデル変種は、制御性と多様性を向上した質問を生成できる。
関連論文リスト
- Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - Diversity Enhanced Narrative Question Generation for Storybooks [4.043005183192124]
マルチクエスト生成モデル(mQG)を導入し,複数の,多様な,回答可能な質問を生成する。
生成した質問の応答性を検証するために,SQuAD2.0の微調整された質問応答モデルを用いる。
mQGは、強力なベースラインの中で、様々な評価指標で有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T08:10:04Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - FOLLOWUPQG: Towards Information-Seeking Follow-up Question Generation [38.78216651059955]
実世界の情報検索フォローアップ質問生成(FQG)の課題について紹介する。
オープンエンド質問に対するRedditフレンドリーな説明を提供するフォーラムレイマンから収集した,3K以上の実世界のデータセット(初期質問,回答,フォローアップ質問)であるFOLLOWUPQGを構築した。
既存のデータセットとは対照的に、FOLLOWUPQGの質問は情報を求めるためにより多様な実用的戦略を使用し、高次認知能力も示している。
論文 参考訳(メタデータ) (2023-09-10T11:58:29Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - "What makes a question inquisitive?" A Study on Type-Controlled
Inquisitive Question Generation [35.87102025753666]
質問生成のためのタイプ制御フレームワークを提案する。
私たちは、ソーステキストから描画しながら、特定のタイプに固執する様々な質問を生成します。
また、生成した集合から1つの質問を選択する戦略についても検討する。
論文 参考訳(メタデータ) (2022-05-17T02:05:50Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - ClarQ: A large-scale and diverse dataset for Clarification Question
Generation [67.1162903046619]
そこで我々は,スタックエクスチェンジから抽出したポストコメンデーションに基づいて,多様な,大規模な明確化質問データセットの作成を支援する,新しいブートストラップフレームワークを考案した。
質問応答の下流タスクに適用することで,新たに作成したデータセットの有用性を定量的に示す。
我々はこのデータセットを公開し、ダイアログと質問応答システムの拡張という大きな目標を掲げて、質問生成の分野の研究を促進する。
論文 参考訳(メタデータ) (2020-06-10T17:56:50Z) - Asking Questions the Human Way: Scalable Question-Answer Generation from
Text Corpus [23.676748207014903]
問合せ型質問生成(ACS-QG)を提案する。
ラベルなしテキストコーパスから高品質で多様な質問応答ペアを大規模に自動生成することを目的としている。
ウィキペディアで見つかった100万の文から、280万の質保証された質問応答ペアを生成することができる。
論文 参考訳(メタデータ) (2020-01-27T05:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。