論文の概要: Generate-Then-Validate: A Novel Question Generation Approach Using Small Language Models
- arxiv url: http://arxiv.org/abs/2512.10110v1
- Date: Wed, 10 Dec 2025 21:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.080245
- Title: Generate-Then-Validate: A Novel Question Generation Approach Using Small Language Models
- Title(参考訳): Generate-Then-Validate:小言語モデルを用いた新しい質問生成手法
- Authors: Yumou Wei, John Stamper, Paulo F. Carvalho,
- Abstract要約: 本稿では,SLMのテキスト生成と確率論的推論能力を活用し,高品質な質問を生成する新しい質問生成パイプラインを提案する。
本研究は,SLMが設計したパイプラインをガイドすることで,高品質な質問を効果的に生成できることを示唆する。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the use of small language models (SLMs) for automatic question generation as a complement to the prevalent use of their large counterparts in learning analytics research. We present a novel question generation pipeline that leverages both the text generation and the probabilistic reasoning abilities of SLMs to generate high-quality questions. Adopting a "generate-then-validate" strategy, our pipeline first performs expansive generation to create an abundance of candidate questions and refine them through selective validation based on novel probabilistic reasoning. We conducted two evaluation studies, one with seven human experts and the other with a large language model (LLM), to assess the quality of the generated questions. Most judges (humans or LLMs) agreed that the generated questions had clear answers and generally aligned well with the intended learning objectives. Our findings suggest that an SLM can effectively generate high-quality questions when guided by a well-designed pipeline that leverages its strengths.
- Abstract(参考訳): 本研究では,学習分析研究における大規模言語の利用を補完する質問自動生成のための小型言語モデル (SLM) について検討する。
本稿では,SLMのテキスト生成と確率論的推論能力を利用して高品質な質問を生成する新しい質問生成パイプラインを提案する。
我々のパイプラインは,まず「世代別評価」戦略を採用し,候補質問を多量に生成し,新しい確率論的推論に基づく選択的検証によってそれらを洗練する拡張生成を行う。
7名の人間専門家と1名の言語モデル (LLM) を用いた2つの評価実験を行い, 得られた質問の質について検討した。
ほとんどの裁判官(人間またはLLM)は、生成された質問は明確な答えを持ち、一般的に意図した学習目標とうまく一致していると同意した。
この結果から,SLMは,その強度を生かした優れたパイプラインを導出することで,高品質な質問を効果的に生成できることが示唆された。
関連論文リスト
- Learning to Refine: Self-Refinement of Parallel Reasoning in LLMs [102.48588475875749]
本稿では,新しい並列テスト時間スケーリングフレームワークであるGenerative Self-Refinement (GSR)を紹介する。
GSRは一連の候補応答を並列に生成し、その後自己精製を行い、新しい優れた解を合成する。
提案手法は,5つの数学ベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-08-27T06:51:48Z) - Leveraging Large Language Models to Generate Course-specific Semantically Annotated Learning Objects [2.1845291030915974]
生成自然言語モデルの最近の進歩は、教育コンテンツの生成に新たな可能性をもたらしている。
本稿では,自動学習者モデル更新に十分な注釈を付けたコンピュータサイエンス質問を生成するための,大規模言語モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-12-05T14:24:07Z) - The Future of Learning in the Age of Generative AI: Automated Question Generation and Assessment with Large Language Models [0.0]
大規模言語モデル(LLM)と生成AIは、自然言語処理(NLP)に革命をもたらした。
本章では,自動質問生成と回答評価におけるLLMの変容の可能性について考察する。
論文 参考訳(メタデータ) (2024-10-12T15:54:53Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Selecting Better Samples from Pre-trained LLMs: A Case Study on Question
Generation [22.294762359009052]
近年,Large Language Models (LLMs) は,自然言語生成に顕著な進歩を見せている。
LLM生成候補の集合から高品質な質問を選択するための2つのプロンプトベースアプローチを提案する。
提案手法は,1)ブラックボックス(修正不可能な)質問生成モデル,2)人間による注釈付き参照へのアクセスの欠如という制約の下で機能する。
論文 参考訳(メタデータ) (2022-09-22T13:33:48Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - Read before Generate! Faithful Long Form Question Answering with Machine
Reading [77.17898499652306]
LFQA(Long-form Question answering)は、ある質問に対する段落長の回答を生成することを目的としている。
生成と機械読取を協調的にモデル化する新しいエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-01T10:41:17Z) - Reinforced Multi-task Approach for Multi-hop Question Generation [47.15108724294234]
我々は,その文脈における支援事実に基づいて,関連する質問を生成することを目的としたマルチホップ質問生成を取り上げている。
我々は,質問生成を導くために,回答認識支援事実予測の補助タスクを備えたマルチタスク学習を採用する。
マルチホップ質問応答データセットHotPotQAの実験を通して,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-04-05T10:16:59Z) - Asking Questions the Human Way: Scalable Question-Answer Generation from
Text Corpus [23.676748207014903]
問合せ型質問生成(ACS-QG)を提案する。
ラベルなしテキストコーパスから高品質で多様な質問応答ペアを大規模に自動生成することを目的としている。
ウィキペディアで見つかった100万の文から、280万の質保証された質問応答ペアを生成することができる。
論文 参考訳(メタデータ) (2020-01-27T05:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。