論文の概要: ConQuer: A Framework for Concept-Based Quiz Generation
- arxiv url: http://arxiv.org/abs/2503.14662v1
- Date: Tue, 18 Mar 2025 19:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:25:52.349787
- Title: ConQuer: A Framework for Concept-Based Quiz Generation
- Title(参考訳): ConQuer: 概念ベースのクイズ生成フレームワーク
- Authors: Yicheng Fu, Zikui Wang, Liuxin Yang, Meiqing Huo, Zhongdongming Dai,
- Abstract要約: ConQuerは概念ベースのクイズ生成フレームワークで、外部の知識ソースを活用する。
我々は, LLMを審査員として, 生成したクイズの品質を評価するために, 包括的評価次元を用いた。
実験の結果, 評価スコアは4.8%改善し, 対比較では77.52%の勝利率を示した。
- 参考スコア(独自算出の注目度): 1.0119571007083363
- License:
- Abstract: Quizzes play a crucial role in education by reinforcing students' understanding of key concepts and encouraging self-directed exploration. However, compiling high-quality quizzes can be challenging and require deep expertise and insight into specific subject matter. Although LLMs have greatly enhanced the efficiency of quiz generation, concerns remain regarding the quality of these AI-generated quizzes and their educational impact on students. To address these issues, we introduce ConQuer, a concept-based quiz generation framework that leverages external knowledge sources. We employ comprehensive evaluation dimensions to assess the quality of the generated quizzes, using LLMs as judges. Our experiment results demonstrate a 4.8% improvement in evaluation scores and a 77.52% win rate in pairwise comparisons against baseline quiz sets. Ablation studies further underscore the effectiveness of each component in our framework. Code available at https://github.com/sofyc/ConQuer.
- Abstract(参考訳): クイズは、重要な概念に対する生徒の理解を強化し、自己指向的な探索を促進することで、教育において重要な役割を担っている。
しかし、高品質なクイズをコンパイルすることは困難であり、特定の主題について深い専門知識と洞察を必要とする。
LLMはクイズ生成の効率を大幅に向上させたが、これらのAI生成クイズの品質と学生に対する教育的影響に関する懸念は残る。
これらの問題に対処するため,概念ベースのクイズ生成フレームワークであるConQuerを紹介した。
我々は, LLMを審査員として, 生成したクイズの品質を評価するために, 包括的評価次元を用いた。
実験の結果, ベースラインクイズ集合との比較では, 評価スコアが4.8%向上し, 77.52%の勝利率を示した。
アブレーション研究は、我々のフレームワークにおける各コンポーネントの有効性をさらに強調する。
コードはhttps://github.com/sofyc/ConQuer.comで公開されている。
関連論文リスト
- Exploring the Impact of Quizzes Interleaved with Write-Code Tasks in Elementary-Level Visual Programming [20.73163889919895]
我々は,K-8コンピューティング教育に広く使われている,初等視覚プログラミング領域におけるクイズの役割について検討する。
それまでの研究は、Fill-in-the-gapライトコードの質問など、様々なクイズタイプを研究してきた。
その結果, よりリッチなクイズで強化されたカリキュラムは, 学習後の有効性が向上したことが明らかとなった。
論文 参考訳(メタデータ) (2024-11-21T16:31:14Z) - How Reliable are LLMs as Knowledge Bases? Re-thinking Facutality and Consistency [60.25969380388974]
大規模言語モデル (LLM) は知識ベース (KB) として研究されている。
現在の評価手法は、信頼性の高い性能の他の決定的な基準を見越して、知識の保持に過度に焦点を絞っている。
我々は,事実と一貫性を定量化するための新しい基準と指標を提案し,最終的な信頼性スコアを導いた。
論文 参考訳(メタデータ) (2024-07-18T15:20:18Z) - LOVA3: Learning to Visual Question Answering, Asking and Assessment [61.51687164769517]
質問への回答、質問、評価は、世界を理解し、知識を得るのに不可欠な3つの人間の特性である。
現在のMLLM(Multimodal Large Language Models)は主に質問応答に焦点を当てており、質問や評価スキルの可能性を無視することが多い。
LOVA3は、"Learning tO Visual Question Answering, Asking and Assessment"と名付けられた革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-05-23T18:21:59Z) - UKP-SQuARE: An Interactive Tool for Teaching Question Answering [61.93372227117229]
質問応答の指数的増加(QA)は、あらゆる自然言語処理(NLP)コースにおいて必須のトピックとなっている。
本稿では、QA教育のプラットフォームとしてUKP-SQuAREを紹介する。
学生は様々な視点から様々なQAモデルを実行、比較、分析することができる。
論文 参考訳(メタデータ) (2023-05-31T11:29:04Z) - Evaluate What You Can't Evaluate: Unassessable Quality for Generated Response [56.25966921370483]
大規模な言語モデルに基づく参照不要評価器の使用には課題がある。
参照なし評価器は、異なるセマンティクス応答を持つオープンな例により適している。
対話応答の質を評価するため, LLM に基づく推論不要評価器の使用にはリスクがある。
論文 参考訳(メタデータ) (2023-05-24T02:52:48Z) - Quiz-based Knowledge Tracing [61.9152637457605]
知識追跡は、学習相互作用に基づいて個人の進化する知識状態を評価することを目的としている。
QKTは、既存の方法と比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-05T12:48:42Z) - Towards Mitigating ChatGPT's Negative Impact on Education: Optimizing
Question Design through Bloom's Taxonomy [0.0]
本稿では,Bloomの分類キーワードの最適セットを特定し,これらのツールが回答に自信を欠くような質問を生成するための進化的アプローチを提案する。
このアプローチの有効性は、オーストラリア、カンベラのニューサウスウェールズ大学で教えられているデータ構造・表現コースからの質問を用いたケーススタディによって評価される。
論文 参考訳(メタデータ) (2023-03-31T00:01:59Z) - Continuous Examination by Automatic Quiz Assessment Using Spiral Codes
and Image Processing [69.35569554213679]
紙のキズは安価で、教室のキャンパス教育の範囲内にある。
クイズの修正は かなりの障害だ
本稿では,新しい画像処理技術によって問題を緩和することを提案する。
論文 参考訳(メタデータ) (2022-01-26T22:58:15Z) - DeepQR: Neural-based Quality Ratings for Learnersourced Multiple-Choice
Questions [6.506382411474777]
自動質問品質評価(AQQR)のためのニューラルネットモデルを提案する。
DeepQRは、広く使用されている学習データソーシングプラットフォームであるPeerWiseから収集された、Multiple-choice-question (MCQ)データセットを使用してトレーニングされている。
8つの大学レベルのコースから収集されたデータセットの実験によると、DeepQRは6つの比較モデルよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-11-19T05:58:39Z) - R2DE: a NLP approach to estimating IRT parameters of newly generated
questions [3.364554138758565]
R2DEは、質問のテキストを見て、新しく生成された複数の選択の質問を評価することができるモデルである。
特に、各質問の難易度と識別度を推定することができる。
論文 参考訳(メタデータ) (2020-01-21T14:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。