論文の概要: "What makes a question inquisitive?" A Study on Type-Controlled
Inquisitive Question Generation
- arxiv url: http://arxiv.org/abs/2205.08056v3
- Date: Thu, 19 May 2022 12:33:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-21 15:22:19.890115
- Title: "What makes a question inquisitive?" A Study on Type-Controlled
Inquisitive Question Generation
- Title(参考訳): 「質問はどんなものか?」
タイプ制御型質問生成に関する研究
- Authors: Lingyu Gao, Debanjan Ghosh, Kevin Gimpel
- Abstract要約: 質問生成のためのタイプ制御フレームワークを提案する。
私たちは、ソーステキストから描画しながら、特定のタイプに固執する様々な質問を生成します。
また、生成した集合から1つの質問を選択する戦略についても検討する。
- 参考スコア(独自算出の注目度): 35.87102025753666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a type-controlled framework for inquisitive question generation.
We annotate an inquisitive question dataset with question types, train question
type classifiers, and finetune models for type-controlled question generation.
Empirical results demonstrate that we can generate a variety of questions that
adhere to specific types while drawing from the source texts. We also
investigate strategies for selecting a single question from a generated set,
considering both an informative vs.~inquisitive question classifier and a
pairwise ranker trained from a small set of expert annotations. Question
selection using the pairwise ranker yields strong results in automatic and
manual evaluation. Our human evaluation assesses multiple aspects of the
generated questions, finding that the ranker chooses questions with the best
syntax (4.59), semantics (4.37), and inquisitiveness (3.92) on a scale of 1-5,
even rivaling the performance of human-written questions.
- Abstract(参考訳): 質問生成のためのタイプ制御フレームワークを提案する。
我々は、質問型、訓練質問型分類器、および型制御された質問生成のためのファインチューンモデルを含む質問データセットを注釈付けする。
実験結果から,ソーステキストを描画しながら,特定のタイプに従属するさまざまな質問を生成できることが示された。
また,生成した集合から1つの質問を選択するための戦略についても検討する。
~質問分類器と、専門家アノテーションの小さなセットから訓練されたペアワイズローダ。
ペアワイズランカを用いた質問選択は,自動的および手作業による評価において強い結果をもたらす。
人間の評価は、生成した質問の複数の側面を評価し、ランク付け者が最高の構文(4.59)、セマンティクス(4.37)、問合せ性(3.92)を1~5の尺度で選択し、人間による質問のパフォーマンスに匹敵する。
関連論文リスト
- Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - Generating Answer Candidates for Quizzes and Answer-Aware Question
Generators [16.44011627249311]
そこで本研究では,テキストの文通しに対して,所定の数の回答候補を生成できるモデルを提案する。
実験の結果,提案する回答候補生成モデルは,いくつかのベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-08-29T19:33:51Z) - Controllable Open-ended Question Generation with A New Question Type
Ontology [6.017006996402699]
複数の文で通常答えられるオープンエンドな質問を生成するという,探索の少ない課題について検討する。
まず、広く使われている質問語よりも、質問のニュアンスの性質をよりよく区別する新しい質問型オントロジーを定義する。
次に,意味グラフ表現によって拡張された質問型認識型質問生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-01T00:02:03Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - A Question Type Driven and Copy Loss Enhanced Frameworkfor
Answer-Agnostic Neural Question Generation [17.819949636876018]
本稿では,質問型予測と複写損失機構という,回答に依存しない質問生成タスクに対処する2つの新しい手法を提案する。
質問タイプモジュールは、質問すべき質問の種類を予測することで、モデルが同じソース文に対して複数のタイプの質問を生成することができる。
新しいコピーロスにより、元のコピーメカニズムが強化され、質問を生成する際に、ソース文のすべての重要な単語がコピーされたことを確認する。
論文 参考訳(メタデータ) (2020-05-24T07:09:04Z) - Asking Questions the Human Way: Scalable Question-Answer Generation from
Text Corpus [23.676748207014903]
問合せ型質問生成(ACS-QG)を提案する。
ラベルなしテキストコーパスから高品質で多様な質問応答ペアを大規模に自動生成することを目的としている。
ウィキペディアで見つかった100万の文から、280万の質保証された質問応答ペアを生成することができる。
論文 参考訳(メタデータ) (2020-01-27T05:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。