論文の概要: Multiple-Choice Question Generation Using Large Language Models: Methodology and Educator Insights
- arxiv url: http://arxiv.org/abs/2506.04851v1
- Date: Thu, 05 Jun 2025 10:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.655682
- Title: Multiple-Choice Question Generation Using Large Language Models: Methodology and Educator Insights
- Title(参考訳): 大規模言語モデルを用いた多項目質問生成:方法論と教育者インサイト
- Authors: Giorgio Biancini, Alessio Ferrato, Carla Limongelli,
- Abstract要約: 大規模言語モデル(LLM)は、教育資料の作成と質問応答のための強力なツールとして登場した。
本稿では,Llama 2 と Mistral, GPT-3.5 の3つの LLM の比較分析を行った。
提案手法では,LLMの知識に頼らず,その知識を幻覚と対比させるプロンプトに注入し,学習者がテストのソーステキストを制御できるようにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating Artificial Intelligence (AI) in educational settings has brought new learning approaches, transforming the practices of both students and educators. Among the various technologies driving this transformation, Large Language Models (LLMs) have emerged as powerful tools for creating educational materials and question answering, but there are still space for new applications. Educators commonly use Multiple-Choice Questions (MCQs) to assess student knowledge, but manually generating these questions is resource-intensive and requires significant time and cognitive effort. In our opinion, LLMs offer a promising solution to these challenges. This paper presents a novel comparative analysis of three widely known LLMs - Llama 2, Mistral, and GPT-3.5 - to explore their potential for creating informative and challenging MCQs. In our approach, we do not rely on the knowledge of the LLM, but we inject the knowledge into the prompt to contrast the hallucinations, giving the educators control over the test's source text, too. Our experiment involving 21 educators shows that GPT-3.5 generates the most effective MCQs across several known metrics. Additionally, it shows that there is still some reluctance to adopt AI in the educational field. This study sheds light on the potential of LLMs to generate MCQs and improve the educational experience, providing valuable insights for the future.
- Abstract(参考訳): 人工知能(AI)を教育環境に統合することで、学生と教育者の双方の実践を変革する新たな学習アプローチがもたらされた。
この変革を推進している様々な技術の中で、Large Language Models (LLM) は教育資料の作成や質問応答のための強力なツールとして登場したが、まだ新しいアプリケーションのためのスペースがある。
教育者は、学生の知識を評価するために、MCQ(Multiple-Choice Questions)を使うが、これらの質問を手動で生成することはリソース集約であり、かなりの時間と認知的な努力を必要とする。
私たちの意見では、LSMはこれらの課題に対して有望な解決策を提供します。
本稿では,Llama 2 と Mistral と GPT-3.5 の3つの LLM の比較分析を行った。
提案手法では,LLMの知識に頼らず,その知識を幻覚と対比させるプロンプトに注入し,学習者がテストのソーステキストを制御できるようにする。
21人の教育者を対象にした実験により, GPT-3.5はいくつかの既知の指標において最も効果的なMCQを生成することが示された。
さらに、教育分野でAIを採用することには、まだ多少の反感があることを示している。
本研究は,LCMがMCQを創出し,教育経験を向上させる可能性に光を当て,将来的な洞察を与えるものである。
関連論文リスト
- Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - LOVA3: Learning to Visual Question Answering, Asking and Assessment [61.51687164769517]
質問への回答、質問、評価は、世界を理解し、知識を得るのに不可欠な3つの人間の特性である。
現在のMLLM(Multimodal Large Language Models)は主に質問応答に焦点を当てており、質問や評価スキルの可能性を無視することが多い。
LOVA3は、"Learning tO Visual Question Answering, Asking and Assessment"と名付けられた革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-05-23T18:21:59Z) - Cross-Data Knowledge Graph Construction for LLM-enabled Educational Question-Answering System: A Case Study at HCMUT [2.8000537365271367]
大規模言語モデル(LLM)は活発な研究トピックとして現れている。
LLMはイベントの記憶、新しい情報の導入、ドメイン固有の問題や幻覚への対処において課題に直面している。
本稿では,複数のデータソースから知識グラフを自動的に構築する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:34:31Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。