論文の概要: Real-Time Multimodal Data Collection Using Smartwatches and Its Visualization in Education
- arxiv url: http://arxiv.org/abs/2512.02651v1
- Date: Tue, 02 Dec 2025 11:12:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.839586
- Title: Real-Time Multimodal Data Collection Using Smartwatches and Its Visualization in Education
- Title(参考訳): スマートウォッチを用いたリアルタイムマルチモーダルデータ収集と教育における可視化
- Authors: Alvaro Becerra, Pablo Villegas, Ruth Cobos,
- Abstract要約: 本稿では、Fitbit Sense 2スマートウォッチのデータ取得アプリケーションであるWatch-DMLTと、プレゼンテーション中に収集した同期マルチモーダルデータを分析するダッシュボードベースの可視化システムであるViSeDOPSを提案する。
本稿では,65名の生徒と16名のスマートウォッチを対象とする教室で,心拍,運動,視線,ビデオ,コンテキストアノテーションなどのデータストリームを収集,分析し,提案システムの有効性と実用性を実証し,より微細でスケーラブルで解釈可能なマルチモーダル・ラーニング・アナリティクスを現実の学習環境で支援する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wearable sensors, such as smartwatches, have become increasingly prevalent across domains like healthcare, sports, and education, enabling continuous monitoring of physiological and behavioral data. In the context of education, these technologies offer new opportunities to study cognitive and affective processes such as engagement, attention, and performance. However, the lack of scalable, synchronized, and high-resolution tools for multimodal data acquisition continues to be a significant barrier to the widespread adoption of Multimodal Learning Analytics in real-world educational settings. This paper presents two complementary tools developed to address these challenges: Watch-DMLT, a data acquisition application for Fitbit Sense 2 smartwatches that enables real-time, multi-user monitoring of physiological and motion signals; and ViSeDOPS, a dashboard-based visualization system for analyzing synchronized multimodal data collected during oral presentations. We report on a classroom deployment involving 65 students and up to 16 smartwatches, where data streams including heart rate, motion, gaze, video, and contextual annotations were captured and analyzed. Results demonstrate the feasibility and utility of the proposed system for supporting fine-grained, scalable, and interpretable Multimodal Learning Analytics in real learning environments.
- Abstract(参考訳): スマートウォッチのようなウェアラブルセンサーは、医療、スポーツ、教育などの領域でますます普及し、生理的および行動的なデータの継続的なモニタリングを可能にしている。
教育の文脈において、これらの技術は、エンゲージメント、注意、パフォーマンスといった認知的および感情的なプロセスを研究する新しい機会を提供する。
しかし、マルチモーダルデータ取得のためのスケーラブルで同期化された高解像度ツールの欠如は、実際の教育環境でのマルチモーダル学習分析の普及にとって、依然として大きな障壁となっている。
本稿では,Fitbit Sense 2 スマートウォッチ用データ取得アプリケーションである Watch-DMLT と,口腔プレゼンテーション中に収集した同期マルチモーダルデータのダッシュボードベース可視化システムである ViSeDOPS について述べる。
65名の生徒と16名のスマートウォッチを対象とし,心拍,運動,視線,ビデオ,コンテキストアノテーションなどのデータストリームを収集,分析した。
実学習環境における細粒度,拡張性,解釈可能なマルチモーダル学習分析を支援するためのシステムの実現可能性と実用性を示す。
関連論文リスト
- CADDI: An in-Class Activity Detection Dataset using IMU data from low-cost sensors [3.3860149185538613]
安価なIMUセンサを用いたクラス内アクティビティ検出のための新しいデータセットを提案する。
データセットは、典型的な教室のシナリオで12人の参加者が実行した、瞬間的および連続的な19の多様なアクティビティで構成されている。
加速度計、ジャイロスコープ、回転ベクトルデータ、および同期ステレオ画像を含み、センサーと視覚データを用いたマルチモーダルアルゴリズムを開発するための包括的なリソースを提供する。
論文 参考訳(メタデータ) (2025-03-04T18:29:57Z) - M2LADS Demo: A System for Generating Multimodal Learning Analytics Dashboards [13.616038134322435]
本稿では,M2LADS (System for Generating Multimodal Learning Analytics Dashboards) と呼ばれるWebベースのシステムを提案する。
本システムは,Web ベースのダッシュボード上での生体情報および行動データを多岐にわたって提示し,様々な生理的および活動的指標に関する詳細な知見を提供する。
論文 参考訳(メタデータ) (2025-02-21T10:22:08Z) - Survey of Large Multimodal Model Datasets, Application Categories and Taxonomy [2.294223504228228]
人工知能の急速に発展する分野であるマルチモーダル学習は、より汎用的で堅牢なシステムの構築を目指している。
多くの感覚を通じて情報を同化する人間の能力に触発され、テキストからビデオへの変換、視覚的質問応答、画像キャプションなどの応用が可能となる。
マルチモーダル言語モデル(MLLM)をサポートするデータセットの最近の発展について概説する。
論文 参考訳(メタデータ) (2024-12-23T18:15:19Z) - Unsupervised Representation Learning of Complex Time Series for Maneuverability State Identification in Smart Mobility [0.0]
スマートモビリティでは、操縦パターンのような行動の時間的ダイナミクスを提供する上で、MSSは重要な役割を果たす。
本研究では,センサを用いた車両から収集したMSSデータのモデル化に関わる課題に対処することを目的とする。
我々の目標は、スマートモビリティにおける操作状態の特定における2つの異なる教師なし表現学習手法の有効性を検討することである。
論文 参考訳(メタデータ) (2024-08-26T15:16:18Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [64.03266872103835]
様々なソースからのデータを組み込んだマルチモーダル機械学習が,ますます普及している研究分野となっている。
我々は、視覚、音声、テキスト、動きなど、各データフォーマットの共通点と特異点を分析する。
本稿では,表現学習と下流アプリケーションレベルの両方から,マルチモーダル学習に関する既存の文献を考察する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。