論文の概要: Automatic Question & Answer Generation Using Generative Large Language Model (LLM)
- arxiv url: http://arxiv.org/abs/2508.19475v1
- Date: Tue, 26 Aug 2025 23:36:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.445166
- Title: Automatic Question & Answer Generation Using Generative Large Language Model (LLM)
- Title(参考訳): 生成型大言語モデル(LLM)を用いた質問・回答の自動生成
- Authors: Md. Alvee Ehsan, A. S. M Mehedi Hasan, Kefaya Benta Shahnoor, Syeda Sumaiya Tasneem,
- Abstract要約: 我々はNLPにおける教師なし学習手法を主に英語に焦点をあてて活用することを提案する。
我々の目標は、自動質問応答生成/(AQAG)を実装することで、このプロセス全体をずっと簡単にすることである。
インストラクターの好みの質問スタイル(MCQ、概念的、事実的質問)を調整するためには、プロンプトエンジニアリング(PE)が利用されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: \Abstract{In the realm of education, student evaluation holds equal significance as imparting knowledge. To be evaluated, students usually need to go through text-based academic assessment methods. Instructors need to make diverse sets of questions that need to be fair for all students to prove their adequacy over a particular topic. This can prove to be quite challenging as they may need to manually go through several different lecture materials. Our objective is to make this whole process much easier by implementing Automatic Question Answer Generation /(AQAG), using fine-tuned generative LLM. For tailoring the instructor's preferred question style (MCQ, conceptual, or factual questions), prompt Engineering (PE) is being utilized. In this research, we propose to leverage unsupervised learning methods in NLP, primarily focusing on the English language. This approach empowers the base Meta-Llama 2-7B model to integrate RACE dataset as training data for the fine-tuning process. Creating a customized model that will offer efficient solutions for educators, instructors, and individuals engaged in text-based evaluations. A reliable and efficient tool for generating questions and answers can free up valuable time and resources, thus streamlining their evaluation processes.}
- Abstract(参考訳): 教育の領域では、学生の評価は知識を与えるのと同じ重要性を持つ。
評価するためには、通常、学生はテキストベースの学術的評価手法を通らなければならない。
インストラクタは、特定のトピックに対する生徒の妥当性を証明するために、学生全員に公平である必要がある多様な質問セットを作成する必要がある。
これは、複数の異なる講義資料を手動で調べる必要があることを考えると、かなり難しい。
本研究の目的は, 自動質問応答生成/(AQAG) を微調整型ジェネレーション LLM を用いて実装することにより, プロセス全体をより容易にすることである。
インストラクターの好みの質問スタイル(MCQ、概念的、事実的質問)を調整するために、インシデントエンジニアリング(PE)が活用されている。
本研究では,NLPにおける教師なし学習手法の活用を提案する。
このアプローチにより、ベースとなるMeta-Llama 2-7Bモデルが、微調整プロセスのトレーニングデータとしてRASデータセットを統合することができる。
教育者、インストラクター、およびテキストベースの評価に従事する個人に対して効率的なソリューションを提供する、カスタマイズされたモデルを作成する。
質問や回答を生成する信頼性が高く効率的なツールは、貴重な時間とリソースを解放し、評価プロセスの合理化を可能にします。
※
関連論文リスト
- LLM-Driven Personalized Answer Generation and Evaluation [0.0]
個人学習者のニーズに適応したパーソナライゼーションは,学習経験の向上に不可欠である。
本稿では,学習者の質問に対するパーソナライズされた回答を生成するために,LLM(Large Language Models)の可能性について検討する。
論文 参考訳(メタデータ) (2025-06-12T15:46:15Z) - The Future of Learning in the Age of Generative AI: Automated Question Generation and Assessment with Large Language Models [0.0]
大規模言語モデル(LLM)と生成AIは、自然言語処理(NLP)に革命をもたらした。
本章では,自動質問生成と回答評価におけるLLMの変容の可能性について考察する。
論文 参考訳(メタデータ) (2024-10-12T15:54:53Z) - KIWI: A Dataset of Knowledge-Intensive Writing Instructions for
Answering Research Questions [63.307317584926146]
ユーザ命令に従うように適応された大規模言語モデル(LLM)は、現在では会話エージェントとして広くデプロイされている。
そこで本研究では,より一般的な命令追従タスクとして,長文の回答作成を支援することを提案する。
我々は、科学領域における知識集約的な記述命令のデータセットKIWIを構築した。
論文 参考訳(メタデータ) (2024-03-06T17:16:44Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Enabling Language Models to Implicitly Learn Self-Improvement [49.16868302881804]
大規模言語モデル(LLM)は、オープンエンドテキスト生成タスクにおいて顕著な機能を示した。
我々は、人間の嗜好データから改善目標を暗黙的に学習するImPlicit Self-ImprovemenT(PIT)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-02T04:29:40Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - Automatic Short Math Answer Grading via In-context Meta-learning [2.0263791972068628]
本研究では,数学質問に対する児童生徒の回答に対する自動短解格付けの問題について検討する。
我々は、数学的な内容に適応した人気のある言語モデルBERTの変種である MathBERT をベースモデルとして使用しています。
第二に、言語モデルへの入力としてスコアリングサンプルを提供する、コンテキスト内学習アプローチを用いる。
論文 参考訳(メタデータ) (2022-05-30T16:26:02Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Question Generation for Adaptive Education [7.23389716633927]
深層知識追跡(LM-KT)のための事前学習言語モデルを微調整する方法を示す。
このモデルは、学生が正しい質問に答える確率を正確に予測し、訓練中に見えない質問に一般化する。
次に、LM-KTを用いて、モデルの訓練対象とデータを特定し、学生に条件付き質問を生成し、難易度を目標とする。
論文 参考訳(メタデータ) (2021-06-08T11:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。