論文の概要: FarsiMCQGen: a Persian Multiple-choice Question Generation Framework
- arxiv url: http://arxiv.org/abs/2510.15134v1
- Date: Thu, 16 Oct 2025 20:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.391086
- Title: FarsiMCQGen: a Persian Multiple-choice Question Generation Framework
- Title(参考訳): FarsiMCQGen:ペルシャの多重選択質問生成フレームワーク
- Authors: Mohammad Heydari Rad, Rezvan Afari, Saeedeh Momtazi,
- Abstract要約: 本稿では,ペルシャ語多言語質問(MCQ)を生成する革新的なアプローチであるFarsiMCQGenを紹介する。
提案手法は,候補生成,フィルタリング,ランキング技術を組み合わせて,実際のMCQに類似した回答選択を生成するモデルを構築する。
トランスフォーマーやナレッジグラフといった高度な手法を活用し、ルールベースのアプローチと統合して、テストテイカーに挑戦する信頼性のあるイントラクタを作成します。
- 参考スコア(独自算出の注目度): 2.026379197206863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiple-choice questions (MCQs) are commonly used in educational testing, as they offer an efficient means of evaluating learners' knowledge. However, generating high-quality MCQs, particularly in low-resource languages such as Persian, remains a significant challenge. This paper introduces FarsiMCQGen, an innovative approach for generating Persian-language MCQs. Our methodology combines candidate generation, filtering, and ranking techniques to build a model that generates answer choices resembling those in real MCQs. We leverage advanced methods, including Transformers and knowledge graphs, integrated with rule-based approaches to craft credible distractors that challenge test-takers. Our work is based on data from Wikipedia, which includes general knowledge questions. Furthermore, this study introduces a novel Persian MCQ dataset comprising 10,289 questions. This dataset is evaluated by different state-of-the-art large language models (LLMs). Our results demonstrate the effectiveness of our model and the quality of the generated dataset, which has the potential to inspire further research on MCQs.
- Abstract(参考訳): 複数選択質問(MCQ)は、学習者の知識を評価する効果的な手段を提供するため、教育試験で一般的に用いられる。
しかし、特にペルシアなどの低リソース言語で高品質のMCQを生成することは、依然として大きな課題である。
本稿ではペルシア語のMCQを生成する革新的なアプローチであるFarsiMCQGenを紹介する。
提案手法は,候補生成,フィルタリング,ランキング技術を組み合わせて,実際のMCQに類似した回答選択を生成するモデルを構築する。
トランスフォーマーやナレッジグラフといった高度な手法を活用し、ルールベースのアプローチと統合して、テストテイカーに挑戦する信頼性のあるイントラクタを作成します。
われわれの研究はWikipediaのデータに基づいており、一般的な知識に関する質問も含んでいる。
さらに,10,289質問からなるペルシア語MCQデータセットについても紹介した。
このデータセットは、さまざまな最先端の大規模言語モデル(LLM)によって評価される。
その結果,提案モデルの有効性と生成したデータセットの質が示され,MCQのさらなる研究を促す可能性が示唆された。
関連論文リスト
- From Model to Classroom: Evaluating Generated MCQs for Portuguese with Narrative and Difficulty Concerns [0.22585387137796725]
本稿では,ポルトガル語の読解における複数選択質問(McQ)作成における現在の生成モデルの有効性について検討する。
以上の結果から,現在のモデルでは,人間によるMCQに匹敵する品質のMCQを生成できることが示唆された。
しかし,本研究では,意味的明瞭度と応答可能性に関する問題点を同定する。
論文 参考訳(メタデータ) (2025-06-18T16:19:46Z) - Prompting is not Enough: Exploring Knowledge Integration and Controllable Generation on Large Language Models [89.65955788873532]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - A Method for Multi-Hop Question Answering on Persian Knowledge Graph [0.0]
主要な課題は、特にペルシア語で、複数のホップの複雑な質問に答えることである。
主な課題の1つは、これらのマルチホップ複雑な質問を意味的に等価なSPARQLクエリに正確に理解し、変換することである。
本研究では,5600件のペルシャ語マルチホップ複合質問のデータセットを,質問の意味的表現に基づく形式とともに開発した。
ペルシャの知識グラフを用いて複雑な質問に答えるためのアーキテクチャが提案された。
論文 参考訳(メタデータ) (2025-01-18T18:11:29Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - SceMQA: A Scientific College Entrance Level Multimodal Question
Answering Benchmark [42.91902601376494]
本稿では,SceMQAについて紹介する。SceMQAは,大学入学レベルでの科学的マルチモーダル質問応答のための新しいベンチマークである。
SceMQAは数学、物理学、化学、生物学などの中核的な科学分野に焦点を当てている。
複数選択と自由応答の混在を特徴とし、AIモデルの能力を総合的に評価する。
論文 参考訳(メタデータ) (2024-02-06T19:16:55Z) - Diversity Enhanced Narrative Question Generation for Storybooks [4.043005183192124]
マルチクエスト生成モデル(mQG)を導入し,複数の,多様な,回答可能な質問を生成する。
生成した質問の応答性を検証するために,SQuAD2.0の微調整された質問応答モデルを用いる。
mQGは、強力なベースラインの中で、様々な評価指標で有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T08:10:04Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。