論文の概要: QuesGenie: Intelligent Multimodal Question Generation
- arxiv url: http://arxiv.org/abs/2509.03535v1
- Date: Wed, 27 Aug 2025 10:45:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.905018
- Title: QuesGenie: Intelligent Multimodal Question Generation
- Title(参考訳): QuesGenie: インテリジェントなマルチモーダル質問生成
- Authors: Ahmed Mubarak, Amna Ahmed, Amira Nasser, Aya Mohamed, Fares El-Sadek, Mohammed Ahmed, Ahmed Salah, Youssef Sobhy,
- Abstract要約: 本研究は,様々なコンテンツフォーマットから多様な質問タイプを自動的に生成するマルチモーダル質問生成システムを開発する。
このシステムは、マルチモーダル入力処理、質問生成、人間からのフィードバックからの強化学習(RLHF)、エンドツーエンドの対話インタフェースの4つの主要コンポーネントを備えている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In today's information-rich era, learners have access to abundant educational resources, but the lack of practice materials tailored to these resources presents a significant challenge. This project addresses that gap by developing a multi-modal question generation system that can automatically generate diverse question types from various content formats. The system features four major components: multi-modal input handling, question generation, reinforcement learning from human feedback (RLHF), and an end-to-end interactive interface. This project lays the foundation for automated, scalable, and intelligent question generation, carefully balancing resource efficiency, robust functionality and a smooth user experience.
- Abstract(参考訳): 今日の情報豊富な時代には、学習者は豊富な教育資源にアクセスできるが、これらの資源に合わせた実践資料の欠如は重大な課題である。
本稿では,様々なコンテンツフォーマットから多様な質問タイプを自動的に生成できるマルチモーダル質問生成システムを開発することで,そのギャップを解消する。
このシステムは、マルチモーダル入力処理、質問生成、人間からのフィードバックからの強化学習(RLHF)、エンドツーエンドの対話インタフェースの4つの主要コンポーネントを備えている。
このプロジェクトは、自動化され、スケーラブルで、インテリジェントな質問生成、リソース効率の慎重にバランス、堅牢な機能、スムーズなユーザエクスペリエンスの基盤を築きます。
関連論文リスト
- MoEMoE: Question Guided Dense and Scalable Sparse Mixture-of-Expert for Multi-source Multi-modal Answering [12.587358542578126]
質問応答 (QA) と質問応答 (VQA) は言語と視覚領域においてよく研究されている問題である。
難解なシナリオの1つとして、複数の情報ソースがあり、それぞれ異なるモダリティがあり、そこでは1つ以上のソースに質問に対する答えが存在する可能性がある。
マルチソース・マルチモーダル情報を含む環境における質問応答生成フレームワークを定式化する。
論文 参考訳(メタデータ) (2025-03-08T18:09:13Z) - Ask in Any Modality: A Comprehensive Survey on Multimodal Retrieval-Augmented Generation [2.549112678136113]
Retrieval-Augmented Generation (RAG)は、外部の動的情報を統合することで問題を軽減し、現実のグラウンドを改善する。
クロスモーダルアライメントと推論は、単調なRAG以上の難題をもたらす。
この調査は、より有能で信頼性の高いAIシステムを開発するための基盤となる。
論文 参考訳(メタデータ) (2025-02-12T22:33:41Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - A Transformer Framework for Data Fusion and Multi-Task Learning in Smart
Cities [99.56635097352628]
本稿では,新興スマートシティを対象としたトランスフォーマーベースのAIシステムを提案する。
ほぼ全ての入力データと出力タスクタイプをサポートし、現在のS&CCをサポートする。
S&CC環境を代表する多様なタスクセットを学習して実演する。
論文 参考訳(メタデータ) (2022-11-18T20:43:09Z) - Personalized Multimodal Feedback Generation in Education [50.95346877192268]
学校課題の自動評価は、教育分野におけるAIの重要な応用である。
モーダルゲート機構とパーソナライズされたバイアス機構を備えたPMFGN(Personalized Multimodal Feedback Generation Network)を提案する。
我々のモデルは、より正確で多様なフィードバックを生成することによって、いくつかのベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2020-10-31T05:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。