論文の概要: IMPROVE: Impact of Mobile Phones on Remote Online Virtual Education
- arxiv url: http://arxiv.org/abs/2412.14195v1
- Date: Fri, 13 Dec 2024 11:29:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:10.993291
- Title: IMPROVE: Impact of Mobile Phones on Remote Online Virtual Education
- Title(参考訳): IMPROVE:携帯電話が遠隔オンラインバーチャル教育に与える影響
- Authors: Roberto Daza, Alvaro Becerra, Ruth Cobos, Julian Fierrez, Aythami Morales,
- Abstract要約: 本研究は,オンライン教育における携帯電話利用が学習者に与える影響を評価するためのIMPROVEデータセットを提案する。
このデータセットは、学術的パフォーマンスと主観的な学習者のフィードバックを評価するだけでなく、生体、行動、生理的信号も取得する。
- 参考スコア(独自算出の注目度): 13.616038134322435
- License:
- Abstract: This work presents the IMPROVE dataset, designed to evaluate the effects of mobile phone usage on learners during online education. The dataset not only assesses academic performance and subjective learner feedback but also captures biometric, behavioral, and physiological signals, providing a comprehensive analysis of the impact of mobile phone use on learning. Multimodal data were collected from 120 learners in three groups with different phone interaction levels. A setup involving 16 sensors was implemented to collect data that have proven to be effective indicators for understanding learner behavior and cognition, including electroencephalography waves, videos, eye tracker, etc. The dataset includes metadata from the processed videos like face bounding boxes, facial landmarks, and Euler angles for head pose estimation. In addition, learner performance data and self-reported forms are included. Phone usage events were labeled, covering both supervisor-triggered and uncontrolled events. A semi-manual re-labeling system, using head pose and eye tracker data, is proposed to improve labeling accuracy. Technical validation confirmed signal quality, with statistical analyses revealing biometric changes during phone use.
- Abstract(参考訳): 本研究は,オンライン教育における携帯電話利用が学習者に与える影響を評価するためのIMPROVEデータセットを提案する。
このデータセットは、学術的パフォーマンスと主観的学習者のフィードバックを評価するだけでなく、生体、行動、生理的信号も取得し、携帯電話の使用が学習に与える影響を包括的に分析する。
携帯電話の対話レベルが異なる3グループで120人の学習者からマルチモーダルデータを収集した。
16個のセンサーを内蔵した装置は,脳波,ビデオ,眼球追跡など,学習者の行動や認知を理解する上で有効な指標となるデータを収集するために実装された。
データセットには、顔境界ボックス、顔のランドマーク、頭部ポーズ推定のためのEuler角といった、処理されたビデオのメタデータが含まれている。
また、学習者のパフォーマンスデータと自己報告フォームも含んでいる。
電話の使用イベントがラベル付けされ、監督機関と制御されていないイベントの両方がカバーされた。
頭部ポーズと眼球追跡データを用いた半手動リラベルシステムを提案する。
技術的検証により信号品質が確認され、統計学的解析により電話使用時の生体的変化が明らかになった。
関連論文リスト
- Automatic Identification and Visualization of Group Training Activities Using Wearable Data [7.130450173185638]
Human Activity Recognition (HAR)は、スマートウォッチのようなウェアラブルデバイスによって収集された時系列データから日々のアクティビティを特定する。
本稿では,ウェアラブルデータからアクティビティを計算,分析,識別するための包括的枠組みを提案する。
当社のアプローチは、Garmin 55スマートウォッチを6ヶ月にわたって装着した135人の兵士から収集されたデータに基づいています。
論文 参考訳(メタデータ) (2024-10-07T19:35:15Z) - Representation Learning for Wearable-Based Applications in the Case of
Missing Data [20.37256375888501]
実環境におけるマルチモーダルセンサデータは、データ品質が低く、データアノテーションが限られているため、依然として困難である。
本稿では,不足するウェアラブルデータに対する表現学習について検討し,最新統計手法と比較する。
本研究は,マスキングに基づく自己指導型学習タスクの設計と開発に関する知見を提供する。
論文 参考訳(メタデータ) (2024-01-08T08:21:37Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Federated Learning: A Signal Processing Perspective [144.63726413692876]
フェデレーションラーニングは、データを明示的に交換することなく、ローカルデータセットを保持する複数のエッジデバイスでモデルをトレーニングするための新しい機械学習パラダイムです。
本稿では、信号処理ツールを用いて扱うのが自然である主な課題をカプセル化し、強調する、連合学習のための統一的な体系的フレームワークを提供する。
論文 参考訳(メタデータ) (2021-03-31T15:14:39Z) - EaZy Learning: An Adaptive Variant of Ensemble Learning for Fingerprint
Liveness Detection [14.99677459192122]
指紋の生存度検出機構は、データセット内環境では良好に機能するが、クロスセンサーおよびクロスデータセット設定下では不幸にも失敗する。
指紋スプーフ検出器の一般化能力、堅牢性、相互運用性を高めるために、学習モデルはデータに適応する必要がある。
本稿では,熱心学習と遅延学習の中間に適応できる汎用モデルであるEaZy学習を提案する。
論文 参考訳(メタデータ) (2021-03-03T06:40:19Z) - TapNet: The Design, Training, Implementation, and Applications of a
Multi-Task Learning CNN for Off-Screen Mobile Input [75.05709030478073]
本稿では,スマートフォンのタップを検出するマルチタスクネットワークであるTapNetの設計,トレーニング,実装,応用について述べる。
TapNetはデバイス間のデータから共同で学習し、タップ方向やタップ位置を含む複数のタップ特性を同時に認識することができる。
論文 参考訳(メタデータ) (2021-02-18T00:45:41Z) - CLRGaze: Contrastive Learning of Representations for Eye Movement
Signals [0.0]
眼球運動の特徴ベクトルを自己指導的に学習する。
我々は、対照的な学習アプローチを採用し、深層ニューラルネットワークが顕著な視線パターンと粒度のパターンを識別することを奨励する一連のデータ変換を提案する。
論文 参考訳(メタデータ) (2020-10-25T06:12:06Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - A Framework for Behavioral Biometric Authentication using Deep Metric
Learning on Mobile Devices [17.905483523678964]
バッテリー駆動のモバイルデバイス上でのトレーニングを取り入れた新しいフレームワークを提案する。これにより、プライベートデータはデバイスを離れることなく、実行時の動作パターンに柔軟に適応するようにトレーニングをスケジュールすることができる。
実験では、3つの公開データセットで95%以上の認証精度が示され、データが少ないマルチクラスの分類では15%の精度が向上し、それぞれ99%と90%が成功したブルートフォース攻撃とサイドチャネル攻撃に対する堅牢性が向上した。
その結果,トレーニングはビデオ視聴よりも低エネルギーを消費し,ゲームよりも若干高いエネルギーを消費していることがわかった。
論文 参考訳(メタデータ) (2020-05-26T17:56:20Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。