論文の概要: MOSAIC-F: A Framework for Enhancing Students' Oral Presentation Skills through Personalized Feedback
- arxiv url: http://arxiv.org/abs/2506.08634v1
- Date: Tue, 10 Jun 2025 09:46:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.257007
- Title: MOSAIC-F: A Framework for Enhancing Students' Oral Presentation Skills through Personalized Feedback
- Title(参考訳): MOSAIC-F:パーソナライズされたフィードバックによる学生の口頭プレゼンテーションスキル向上のためのフレームワーク
- Authors: Alvaro Becerra, Daniel Andres, Pablo Villegas, Roberto Daza, Ruth Cobos,
- Abstract要約: このフレームワークは、MMLA(Multimodal Learning Analytics)、観測、センサー、人工知能(AI)、コラボレーションアセスメントを統合している。
このフレームワークは、人間に基づく評価技術とデータに基づく評価技術を組み合わせることで、より正確でパーソナライズされ、行動可能なフィードバックを可能にする。
- 参考スコア(独自算出の注目度): 1.0835264351334324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article, we present a novel multimodal feedback framework called MOSAIC-F, an acronym for a data-driven Framework that integrates Multimodal Learning Analytics (MMLA), Observations, Sensors, Artificial Intelligence (AI), and Collaborative assessments for generating personalized feedback on student learning activities. This framework consists of four key steps. First, peers and professors' assessments are conducted through standardized rubrics (that include both quantitative and qualitative evaluations). Second, multimodal data are collected during learning activities, including video recordings, audio capture, gaze tracking, physiological signals (heart rate, motion data), and behavioral interactions. Third, personalized feedback is generated using AI, synthesizing human-based evaluations and data-based multimodal insights such as posture, speech patterns, stress levels, and cognitive load, among others. Finally, students review their own performance through video recordings and engage in self-assessment and feedback visualization, comparing their own evaluations with peers and professors' assessments, class averages, and AI-generated recommendations. By combining human-based and data-based evaluation techniques, this framework enables more accurate, personalized and actionable feedback. We tested MOSAIC-F in the context of improving oral presentation skills.
- Abstract(参考訳): 本稿では,Multimodal Learning Analytics (MMLA), Observations, Sensors, Artificial Intelligence (AI), Collaborative Assessmentsを統合したデータ駆動フレームワークの頭字語であるMOSAIC-Fを提案する。
このフレームワークは4つの重要なステップから構成される。
第一に、ピアと教授の評価は標準化されたルーリック(量的評価と質的評価の両方を含む)によって行われる。
第2に、ビデオ記録、オーディオキャプチャー、視線追跡、生理的信号(心拍数、動きデータ)、行動的相互作用などの学習活動中に、マルチモーダルデータを収集する。
第3に、AIを使用してパーソナライズされたフィードバックを生成し、人間に基づく評価と、姿勢、スピーチパターン、ストレスレベル、認知的負荷などのデータベースのマルチモーダル洞察を合成する。
最後に、学生はビデオ録画を通じて自身のパフォーマンスをレビューし、自己評価とフィードバックの可視化を行い、評価を同僚や教授の評価、クラス平均、AI生成レコメンデーションと比較する。
このフレームワークは、人間に基づく評価技術とデータに基づく評価技術を組み合わせることで、より正確でパーソナライズされ、行動可能なフィードバックを可能にする。
また,MOSAIC-Fを口腔プレゼンテーションのスキル向上の文脈で検証した。
関連論文リスト
- Leadership Assessment in Pediatric Intensive Care Unit Team Training [12.775569777482566]
本稿では、自我中心のビジョンに基づく自動分析フレームワークを開発することにより、PICUチームのリーダーシップスキルを評価するタスクについて述べる。
指導力評価の重要指標として, 固定対象, アイコンタクト, 会話パターンなどの重要な行動指標を同定した。
論文 参考訳(メタデータ) (2025-05-30T09:19:33Z) - Reinforced Interactive Continual Learning via Real-time Noisy Human Feedback [59.768119380109084]
本稿では,AIモデルがリアルタイムフィードバックから新たなスキルを動的に学習する対話型連続学習パラダイムを提案する。
大規模言語モデル(LLM)を活用した強化型対話型連続学習フレームワークRiCLを提案する。
我々のRiCLアプローチは、最先端のオンライン連続学習とノイズラベル学習の既存の組み合わせを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-15T03:22:03Z) - Multimodal Assessment of Classroom Discourse Quality: A Text-Centered Attention-Based Multi-Task Learning Approach [7.273857543125784]
本研究は,GTI(Global Teaching InSights)観測プロトコルにおける3つの談話コンポーネントの品質を評価するために,テキスト中心のマルチモーダル融合アーキテクチャを提案する。
我々は、テキスト、オーディオ、ビデオストリームからのモーダル間相互作用とモーダル間相互作用をキャプチャするために注意機構を用いる。
本研究は,本課題へのアプローチにおけるテキストモダリティの優位性を強調した。
論文 参考訳(メタデータ) (2025-05-12T09:24:21Z) - Evaluating LLM-based Agents for Multi-Turn Conversations: A Survey [64.08485471150486]
本研究では,大規模言語モデル(LLM)に基づくマルチターン対話環境におけるエージェントの評価手法について検討する。
我々は250近い学術資料を体系的にレビューし、様々な出版場所から芸術の状態を捉えた。
論文 参考訳(メタデータ) (2025-03-28T14:08:40Z) - Automated Assessment of Encouragement and Warmth in Classrooms Leveraging Multimodal Emotional Features and ChatGPT [7.273857543125784]
本研究は,教室における暖かさと励ましを自動的に推定するマルチモーダルアプローチである。
映像,音声,転写データから解釈可能な特徴を抽出するために,感情分析を用いた顔と音声の感情認識を用いた。
92の授業記録から367の16分間のビデオセグメントを含むGTIデータセットに対するアプローチを実証した。
論文 参考訳(メタデータ) (2024-04-01T16:58:09Z) - Constructive Large Language Models Alignment with Diverse Feedback [76.9578950893839]
本稿では,大規模言語モデルのアライメント向上のための新しい手法として,コンストラクティブ・ディバース・フィードバック(CDF)を導入する。
我々は,簡単な問題に対する批判的フィードバック,中級問題に対する改善的フィードバック,難題に対する選好的フィードバックを利用する。
このような多様なフィードバックでモデルをトレーニングすることで、トレーニングデータの少ない使用でアライメント性能を向上させることができる。
論文 参考訳(メタデータ) (2023-10-10T09:20:14Z) - UltraFeedback: Boosting Language Models with Scaled AI Feedback [99.4633351133207]
大規模で高品質で多様なAIフィードバックデータセットである textscUltraFeedback を提示する。
我々の研究は、強力なオープンソースのチャット言語モデルを構築する上で、スケールしたAIフィードバックデータの有効性を検証する。
論文 参考訳(メタデータ) (2023-10-02T17:40:01Z) - Deep Learning-based Non-Intrusive Multi-Objective Speech Assessment Model with Cross-Domain Features [31.59528815233441]
我々はMOSA-Netと呼ばれるクロスドメイン多目的音声アセスメントモデルを提案し、同時に複数の音声アセスメント指標を推定できる。
実験の結果, 音声品質(PESQ)予測の知覚評価において, MOSA-Net は線形相関係数 (LCC) を 0.026 (0.990 vs 0.964) と 0.012 (0.969 vs 0.957) で改善できることがわかった。
論文 参考訳(メタデータ) (2021-11-03T17:30:43Z) - Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy
Evaluation Approach [84.02388020258141]
強化学習におけるオフポリシ評価に基づく人間評価スコア推定のための新しいフレームワークであるENIGMAを提案する。
ENIGMAはいくつかの事前収集された経験データしか必要としないため、評価中にターゲットポリシーとのヒューマンインタラクションは不要である。
実験の結果,ENIGMAは人間の評価スコアと相関して既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-02-20T03:29:20Z) - Assessment Modeling: Fundamental Pre-training Tasks for Interactive
Educational Systems [3.269851859258154]
ラベルスカース問題を回避する一般的な方法は、学習項目の内容の表現を学習するためのモデルを事前学習することである。
本稿では,総合的な対話型教育システムのための基礎的事前学習課題のクラスであるアセスメント・モデリングを提案する。
論文 参考訳(メタデータ) (2020-01-01T02:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。