論文の概要: A Multimodal Dataset of Student Oral Presentations with Sensors and Evaluation Data
- arxiv url: http://arxiv.org/abs/2601.07576v1
- Date: Mon, 12 Jan 2026 14:29:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.437438
- Title: A Multimodal Dataset of Student Oral Presentations with Sensors and Evaluation Data
- Title(参考訳): センサと評価データを用いた学生口頭発表のマルチモーダルデータセット
- Authors: Alvaro Becerra, Ruth Cobos, Roberto Daza,
- Abstract要約: SOPHIASは、マドリード大学オートノマ校(Universidad Autonoma de Madrid)の65人の学生による50の口頭プレゼンテーションの記録を含む12時間のマルチモーダルデータセットである。
SOPHIASは、高精細Webカメラ、環境とウェブカムのオーディオ、アイトラッキングメガネ、スマートウォッチの生理センサー、クリック、キーボード、マウスのインタラクションの8つの同期センサーストリームを統合している。
データセットは、実際の教室で実施されたプレゼンテーションをキャプチャし、学生の行動、相互作用、生理的反応を保存する。
- 参考スコア(独自算出の注目度): 1.0705399532413615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Oral presentation skills are a critical component of higher education, yet comprehensive datasets capturing real-world student performance across multiple modalities remain scarce. To address this gap, we present SOPHIAS (Student Oral Presentation monitoring for Holistic Insights & Analytics using Sensors), a 12-hour multimodal dataset containing recordings of 50 oral presentations (10-15-minute presentation followed by 5-15-minute Q&A) delivered by 65 undergraduate and master's students at the Universidad Autonoma de Madrid. SOPHIAS integrates eight synchronized sensor streams from high-definition webcams, ambient and webcam audio, eye-tracking glasses, smartwatch physiological sensors, and clicker, keyboard, and mouse interactions. In addition, the dataset includes slides and rubric-based evaluations from teachers, peers, and self-assessments, along with timestamped contextual annotations. The dataset captures presentations conducted in real classroom settings, preserving authentic student behaviors, interactions, and physiological responses. SOPHIAS enables the exploration of relationships between multimodal behavioral and physiological signals and presentation performance, supports the study of peer assessment, and provides a benchmark for developing automated feedback and Multimodal Learning Analytics tools. The dataset is publicly available for research through GitHub and Science Data Bank.
- Abstract(参考訳): オーラルプレゼンテーションスキルは高等教育において重要な要素であるが、複数のモダリティをまたいだ実世界の学生のパフォーマンスを捉える包括的なデータセットは依然として乏しい。
SOPHIAS(Student Oral Presentation Monitoring for Holistic Insights & Analytics for Holistic Insights & Analytics using Sensors)は,マドリード大学オートノマ校の65人の学部生と修士課程生が行った,50の口頭プレゼンテーション(10~15分間のプレゼンテーションと5~15分間のQ&A)の記録を含む12時間のマルチモーダルデータセットである。
SOPHIASは、高精細Webカメラ、環境とウェブカムのオーディオ、アイトラッキングメガネ、スマートウォッチの生理センサー、クリック、キーボード、マウスのインタラクションの8つの同期センサーストリームを統合している。
さらにデータセットには、教師、同僚、自己評価からのスライドとルーリックベースの評価、タイムスタンプ付きコンテキストアノテーションが含まれている。
データセットは、実際の教室で実施されたプレゼンテーションをキャプチャし、学生の行動、相互作用、生理的反応を保存する。
SOPHIASは、マルチモーダルな行動信号と生理的信号の関係の探索とプレゼンテーション性能、ピアアセスメント研究の支援、自動フィードバック開発のためのベンチマークとマルチモーダル学習分析ツールを提供する。
このデータセットは、GitHubとScience Data Bankを通じて研究するために公開されている。
関連論文リスト
- Real-Time Multimodal Data Collection Using Smartwatches and Its Visualization in Education [0.0]
本稿では、Fitbit Sense 2スマートウォッチのデータ取得アプリケーションであるWatch-DMLTと、プレゼンテーション中に収集した同期マルチモーダルデータを分析するダッシュボードベースの可視化システムであるViSeDOPSを提案する。
本稿では,65名の生徒と16名のスマートウォッチを対象とする教室で,心拍,運動,視線,ビデオ,コンテキストアノテーションなどのデータストリームを収集,分析し,提案システムの有効性と実用性を実証し,より微細でスケーラブルで解釈可能なマルチモーダル・ラーニング・アナリティクスを現実の学習環境で支援する。
論文 参考訳(メタデータ) (2025-12-02T11:12:46Z) - SensorLM: Learning the Language of Wearable Sensors [50.95988682423808]
本稿では,自然言語によるウェアラブルセンサデータ理解を可能にするセンサ言語基盤モデルのファミリーであるSensorLMを紹介する。
本稿では,センサデータから統計的,構造的,意味的な情報を収集する階層的なキャプション生成パイプラインを提案する。
このアプローチにより、これまでで最大のセンサー言語データセットのキュレーションが可能となり、103,000人以上から5970万時間以上のデータを収集した。
論文 参考訳(メタデータ) (2025-06-10T17:13:09Z) - MOSAIC-F: A Framework for Enhancing Students' Oral Presentation Skills through Personalized Feedback [1.0835264351334324]
このフレームワークは、MMLA(Multimodal Learning Analytics)、観測、センサー、人工知能(AI)、コラボレーションアセスメントを統合している。
このフレームワークは、人間に基づく評価技術とデータに基づく評価技術を組み合わせることで、より正確でパーソナライズされ、行動可能なフィードバックを可能にする。
論文 参考訳(メタデータ) (2025-06-10T09:46:31Z) - LecEval: An Automated Metric for Multimodal Knowledge Acquisition in Multimedia Learning [58.98865450345401]
本稿では,マイアーのマルチメディア学習認知理論に基礎を置く自動計量であるLecEvalを紹介する。
LecEvalは、コンテンツ関連(CR)、表現的明瞭度(EC)、論理構造(LS)、聴取エンゲージメント(AE)の4つのルーリックを用いて効果を評価する
私たちは、50以上のオンラインコースビデオから2000以上のスライドからなる大規模なデータセットをキュレートします。
論文 参考訳(メタデータ) (2025-05-04T12:06:47Z) - SMARTe-VR: Student Monitoring and Adaptive Response Technology for e-Learning in Virtual Reality [8.605843219338793]
本研究は,オンライン教育用に設計された没入型仮想現実環境における学生監視プラットフォームSMARTe-VRを紹介する。
このプラットフォームでは、インストラクターがビデオ講義でカスタマイズされた学習セッションを作成することができる。
われわれは,VRベースのTOEICセッションで10ユーザからのデータを用いた5つの研究課題を含むデータセットをリリースした。
論文 参考訳(メタデータ) (2025-01-19T07:53:39Z) - MMSci: A Dataset for Graduate-Level Multi-Discipline Multimodal Scientific Understanding [59.41495657570397]
本稿では,72の科学分野をカバーするNature Communicationsの記事からまとめられた包括的データセットについて述べる。
2つのベンチマークタスク(図のキャプションと複数選択)で19のプロプライエタリモデルとオープンソースモデルを評価し,人手による注釈を行った。
タスク固有データを用いた細調整Qwen2-VL-7Bは、GPT-4oや人間の専門家でさえも、マルチチョイス評価において優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-06T00:40:53Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。