論文の概要: Beyond the Textual: Generating Coherent Visual Options for MCQs
- arxiv url: http://arxiv.org/abs/2508.18772v1
- Date: Tue, 26 Aug 2025 07:55:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.737068
- Title: Beyond the Textual: Generating Coherent Visual Options for MCQs
- Title(参考訳): テキストを超えて:MCQのためのコヒーレントなビジュアルオプションを生成する
- Authors: Wanqiang Wang, Longzhu He, Wei Zheng,
- Abstract要約: クロスモーダル・オプション・シンセサイザー(CmOS)は、視覚的オプションを備えた教育用多目的質問(MCQ)を生成するための新しいフレームワークである。
本フレームワークは,マルチモーダル・チェーン・オブ・ソート(MCoT)推論プロセスと検索型拡張生成(RAG)を統合し,意味論的に妥当な回答と注意散らしを生成する。
- 参考スコア(独自算出の注目度): 3.1042450838827005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple-choice questions (MCQs) play a crucial role in fostering deep thinking and knowledge integration in education. However, previous research has primarily focused on generating MCQs with textual options, but it largely overlooks the visual options. Moreover, generating high-quality distractors remains a major challenge due to the high cost and limited scalability of manual authoring. To tackle these problems, we propose a Cross-modal Options Synthesis (CmOS), a novel framework for generating educational MCQs with visual options. Our framework integrates Multimodal Chain-of-Thought (MCoT) reasoning process and Retrieval-Augmented Generation (RAG) to produce semantically plausible and visually similar answer and distractors. It also includes a discrimination module to identify content suitable for visual options. Experimental results on test tasks demonstrate the superiority of CmOS in content discrimination, question generation and visual option generation over existing methods across various subjects and educational levels.
- Abstract(参考訳): 多重選択質問(MCQ)は、教育における深い思考と知識の統合を促進する上で重要な役割を担っている。
しかし、これまでの研究では主にテキストオプションによるMCQの生成に重点を置いていたが、視覚的オプションは概ね見落としている。
さらに、手書きオーサリングのコストが高く、拡張性に制限があるため、高品質なイントラクタの生成は依然として大きな課題である。
これらの課題に対処するために,視覚的オプションを持つ教育用MCQを生成するための新しいフレームワークであるCross-modal Options Synthesis (CmOS)を提案する。
我々のフレームワークはマルチモーダル・チェーン・オブ・ソート(MCoT)推論プロセスとレトリーバル・アグメンテッド・ジェネレーション(RAG)を統合して、意味論的に妥当で視覚的に類似した回答と気晴らしを生成する。
また、視覚的オプションに適したコンテンツを特定するための識別モジュールも含まれている。
テスト課題における実験結果から,CmOSのコンテンツ識別,質問生成,視覚的オプション生成における優位性が,様々な被験者や教育レベルにまたがる既存手法よりも証明された。
関連論文リスト
- Cantor: Inspiring Multimodal Chain-of-Thought of MLLM [83.6663322930814]
視覚的コンテキスト獲得と論理的推論の集約は、視覚的推論タスクに取り組む上で重要であると我々は主張する。
我々はCantorと呼ばれる革新的なマルチモーダルCoTフレームワークを提案し、その特徴は知覚決定アーキテクチャである。
提案手法の有効性を実証し,マルチモーダルCoT性能の大幅な向上を示した。
論文 参考訳(メタデータ) (2024-04-24T17:59:48Z) - Exploring Automated Distractor Generation for Math Multiple-choice Questions via Large Language Models [40.50115385623107]
マルチチョイス質問(MCQ)は、評価や実践において、管理しやすく、格付けし、信頼性の高いフォーマットであるため、ほぼ全てのレベルの教育においてユビキタスである。
MCQの最も重要な側面の1つは、実際の学生の間でよくある誤りや誤解を狙った誤った選択肢である。
現在まで、高品質なイントラクタを開発するというタスクは、拡張性に制限のある教師や学習コンテンツデザイナにとって、労働力と時間を要するプロセスのままである。
論文 参考訳(メタデータ) (2024-04-02T17:31:58Z) - Diversify Question Generation with Retrieval-Augmented Style Transfer [68.00794669873196]
本稿では,検索型スタイル転送のためのフレームワーク RAST を提案する。
本研究の目的は,多様なテンプレートのスタイルを質問生成に活用することである。
多様性報酬と一貫性報酬の重み付けを最大化する新しい強化学習(RL)ベースのアプローチを開発する。
論文 参考訳(メタデータ) (2023-10-23T02:27:31Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - Enhancing Human-like Multi-Modal Reasoning: A New Challenging Dataset
and Comprehensive Framework [51.44863255495668]
マルチモーダル推論は、人間のような知性を示す人工知能システムの追求において重要な要素である。
提案するマルチモーダル推論(COCO-MMR)データセットは,オープンエンド質問の集合を包含する新しいデータセットである。
画像とテキストエンコーダを強化するために,マルチホップ・クロスモーダル・アテンションや文レベルのコントラスト学習などの革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:58:25Z) - Rethinking Label Smoothing on Multi-hop Question Answering [87.68071401870283]
MHQA (Multi-Hop Question Answering) は質問応答において重要な分野である。
本研究では,マルチホップ推論の性能を制限する主要な要因を解析する。
学習プロセスに不確実性を組み込んだ新しいラベル平滑化手法F1 Smoothingを提案する。
論文 参考訳(メタデータ) (2022-12-19T14:48:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。