論文の概要: LLM-based Multimodal Feedback Produces Equivalent Learning and Better Student Perceptions than Educator Feedback
- arxiv url: http://arxiv.org/abs/2601.15280v1
- Date: Wed, 21 Jan 2026 18:58:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 13:30:18.591119
- Title: LLM-based Multimodal Feedback Produces Equivalent Learning and Better Student Perceptions than Educator Feedback
- Title(参考訳): LLMに基づくマルチモーダルフィードバックは、教育者フィードバックよりも等価な学習と学生の知覚を創出する
- Authors: Chloe Qianhui Zhao, Jie Cao, Jionghao Lin, Kenneth R. Koedinger,
- Abstract要約: 本研究では,構造化テキスト記述を動的マルチメディアリソースと統合したリアルタイムAIファシリケート型マルチモーダルフィードバックシステムを提案する。
オンラインクラウドソーシング実験では,3次元の教育者による固定されたビジネス・アズ・ユースフィードバックと比較した。
その結果、AIマルチモーダルフィードバックは、元の教育者フィードバックに匹敵する学習の獲得を達成し、認知負荷の明確さ、特異性、簡潔性、モチベーション、満足度、および認知負荷の低減を著しく上回った。
- 参考スコア(独自算出の注目度): 4.225232488376583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing timely, targeted, and multimodal feedback helps students quickly correct errors, build deep understanding and stay motivated, yet making it at scale remains a challenge. This study introduces a real-time AI-facilitated multimodal feedback system that integrates structured textual explanations with dynamic multimedia resources, including the retrieved most relevant slide page references and streaming AI audio narration. In an online crowdsourcing experiment, we compared this system against fixed business-as-usual feedback by educators across three dimensions: (1) learning effectiveness, (2) learner engagement, (3) perceived feedback quality and value. Results showed that AI multimodal feedback achieved learning gains equivalent to original educator feedback while significantly outperforming it on perceived clarity, specificity, conciseness, motivation, satisfaction, and reducing cognitive load, with comparable correctness, trust, and acceptance. Process logs revealed distinct engagement patterns: for multiple-choice questions, educator feedback encouraged more submissions; for open-ended questions, AI-facilitated targeted suggestions lowered revision barriers and promoted iterative improvement. These findings highlight the potential of AI multimodal feedback to provide scalable, real-time, and context-aware support that both reduces instructor workload and enhances student experience.
- Abstract(参考訳): タイムリー、ターゲット、マルチモーダルなフィードバックを提供することは、学生がエラーを迅速に修正し、深い理解を構築し、動機づけを維持するのに役立ちます。
本研究では、構造化されたテキスト説明を動的マルチメディアリソースと統合したリアルタイムAIファシリケート型マルチモーダルフィードバックシステムを提案する。
オンラインクラウドソーシング実験では,(1)学習効果,(2)学習者のエンゲージメント,(3)知覚されたフィードバック品質と価値の3つの次元にわたる,教育者による固定されたビジネス・アズ・ユースフィードバックと比較した。
その結果、AIのマルチモーダルフィードバックは、元の教育者フィードバックに匹敵する学習の獲得を達成し、認識の明瞭さ、特異性、簡潔さ、モチベーション、満足度、認知負荷の低減を、同等の正当性、信頼、受容度で大きく上回った。
プロセスログは、異なるエンゲージメントパターンを明らかにした: 複数選択の質問では、教育者からのフィードバックにより、より多くの応募が奨励された。
これらの知見は、AIマルチモーダルフィードバックが、インストラクターの作業量を削減し、学生の体験を向上させるスケーラブルでリアルタイム、コンテキスト対応のサポートを提供する可能性を強調している。
関連論文リスト
- Personalized Multimodal Feedback Using Multiple External Representations: Strategy Profiles and Learning in High School Physics [0.11726720776908518]
複数の外部表現(MER)とパーソナライズされたフィードバックは物理学習を支援するが、パーソナライズされたフィードバックがMERを効果的に統合する方法の証拠は限られている。
16~24週間の高校理科における観察研究を,言語,図形,数学的形態の検証と入念なフィードバックを提供するコンピュータベースプラットフォームを用いて行った。
論文 参考訳(メタデータ) (2026-01-14T13:25:44Z) - Scaling Equitable Reflection Assessment in Education via Large Language Models and Role-Based Feedback Agents [2.825140278227664]
形式的フィードバックは、学生学習の最も効果的な要因の1つである。
大規模または低リソースのコースでは、インストラクターは学生のリフレクションのレビューや応答に必要な時間、スタッフ、帯域幅を欠いていることが多い。
本稿では,5つの協調型ロールベースLLMエージェントを用いて学習者の反射をスコアリングする理論基底システムを提案する。
論文 参考訳(メタデータ) (2025-11-14T09:46:21Z) - Directive, Metacognitive or a Blend of Both? A Comparison of AI-Generated Feedback Types on Student Engagement, Confidence, and Outcomes [1.8839714322633465]
本研究は,329名の学生を対象に,適応型教育プラットフォームを用いた授業設計・プログラミングコースにおいて,学期間無作為化比較試験を行った。
参加者は、指示的、メタ認知的、あるいはハイブリッドなAI生成フィードバックを受け取り、指示的、メタ認知的の両方の要素をブレンドする。
その結果、リビジョン行動はフィードバック条件によって異なり、ハイブリットはディレクティブやメタ認知と比較して最も多くのリビジョンを促すことがわかった。
論文 参考訳(メタデータ) (2025-10-22T15:31:21Z) - Listening with Language Models: Using LLMs to Collect and Interpret Classroom Feedback [14.83267437400996]
大規模言語モデル(LLM)を利用したチャットボットは、学生に反射的で会話的な対話をさせ、教室のフィードバックプロセスを再現することができる。
以上の結果から, LLMに基づくフィードバックシステムは, 標準的な調査ツールと比較して, より豊かな洞察, 文脈的関連性, エンゲージメントを提供する可能性が示唆された。
論文 参考訳(メタデータ) (2025-08-13T22:53:55Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - "My Grade is Wrong!": A Contestable AI Framework for Interactive Feedback in Evaluating Student Essays [6.810086342993699]
本稿では,対話型フィードバックを自動生成するContestable AI Empowered LLM FrameworkであるCAELFを紹介する。
CAELFは、マルチエージェントシステムと計算的議論を統合することで、学生がフィードバックをクエリし、挑戦し、明確化することができる。
ユーザスタディを用いた500の批判的思考エッセイのケーススタディでは,CAELFが対話的フィードバックを大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-09-11T17:59:01Z) - LOVA3: Learning to Visual Question Answering, Asking and Assessment [61.51687164769517]
質問への回答、質問、評価は、世界を理解し、知識を得るのに不可欠な3つの人間の特性である。
現在のMLLM(Multimodal Large Language Models)は主に質問応答に焦点を当てており、質問や評価スキルの可能性を無視することが多い。
LOVA3は、"Learning tO Visual Question Answering, Asking and Assessment"と名付けられた革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-05-23T18:21:59Z) - Improving the Validity of Automatically Generated Feedback via Reinforcement Learning [46.667783153759636]
強化学習(RL)を用いた正当性と整合性の両方を最適化するフィードバック生成フレームワークを提案する。
具体的には、直接選好最適化(DPO)によるトレーニングのための拡張データセットにおいて、GPT-4のアノテーションを使用してフィードバックペアよりも好みを生成する。
論文 参考訳(メタデータ) (2024-03-02T20:25:50Z) - Continually Improving Extractive QA via Human Feedback [59.49549491725224]
本研究では,人間のフィードバックによる抽出質問応答(QA)システムの改善を継続的に進める。
多様な設定の下で何千ものユーザインタラクションを含む実験を行い、時間とともにフィードバックからの学習の理解を広げます。
論文 参考訳(メタデータ) (2023-05-21T14:35:32Z) - Personalized Multimodal Feedback Generation in Education [50.95346877192268]
学校課題の自動評価は、教育分野におけるAIの重要な応用である。
モーダルゲート機構とパーソナライズされたバイアス機構を備えたPMFGN(Personalized Multimodal Feedback Generation Network)を提案する。
我々のモデルは、より正確で多様なフィードバックを生成することによって、いくつかのベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2020-10-31T05:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。