論文の概要: AI-based Multimodal Biometrics for Detecting Smartphone Distractions: Application to Online Learning
- arxiv url: http://arxiv.org/abs/2506.17364v1
- Date: Fri, 20 Jun 2025 11:37:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.383295
- Title: AI-based Multimodal Biometrics for Detecting Smartphone Distractions: Application to Online Learning
- Title(参考訳): スマートフォンのディトラクション検出のためのAIベースのマルチモーダルバイオメトリックス:オンライン学習への応用
- Authors: Alvaro Becerra, Roberto Daza, Ruth Cobos, Aythami Morales, Mutlu Cukurova, Julian Fierrez,
- Abstract要約: 本稿では、生理的信号と頭部ポーズデータを利用して、電話の使用を検出するAIベースのアプローチを提案する。
以上の結果から,脳波や心拍数などの生体信号の精度は低く,頭部ポーズだけで87%の精度が得られた。
すべての信号を組み合わせたマルチモーダルモデルは91%の精度に達し、統合の利点を強調している。
- 参考スコア(独自算出の注目度): 13.124145425838792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work investigates the use of multimodal biometrics to detect distractions caused by smartphone use during tasks that require sustained attention, with a focus on computer-based online learning. Although the methods are applicable to various domains, such as autonomous driving, we concentrate on the challenges learners face in maintaining engagement amid internal (e.g., motivation), system-related (e.g., course design) and contextual (e.g., smartphone use) factors. Traditional learning platforms often lack detailed behavioral data, but Multimodal Learning Analytics (MMLA) and biosensors provide new insights into learner attention. We propose an AI-based approach that leverages physiological signals and head pose data to detect phone use. Our results show that single biometric signals, such as brain waves or heart rate, offer limited accuracy, while head pose alone achieves 87%. A multimodal model combining all signals reaches 91% accuracy, highlighting the benefits of integration. We conclude by discussing the implications and limitations of deploying these models for real-time support in online learning environments.
- Abstract(参考訳): 本研究は,コンピュータによるオンライン学習に焦点をあて,注意を要するタスクにおいてスマートフォンの使用によって引き起こされる気晴らしを検出するためのマルチモーダルバイオメトリックスの利用について検討する。
本手法は、自律運転など様々な分野に適用できるが、内的(動機づけなど)、システム的(コースデザインなど)、文脈的(スマートフォン利用など)の要因の中で、学習者がエンゲージメントを維持する上で直面する課題に焦点をあてる。
従来の学習プラットフォームには詳細な行動データがないことが多いが、Multimodal Learning Analytics(MMLA)とバイオセンサーは学習者の注意に新たな洞察を与える。
本稿では、生理的信号と頭部ポーズデータを利用して、電話の使用を検出するAIベースのアプローチを提案する。
以上の結果から,脳波や心拍数などの生体信号の精度は低く,頭部ポーズだけで87%の精度が得られた。
すべての信号を組み合わせたマルチモーダルモデルは91%の精度に達し、統合の利点を強調している。
オンライン学習環境におけるリアルタイムサポートにこれらのモデルを配置することの意味と限界について論じる。
関連論文リスト
- DeepFace-Attention: Multimodal Face Biometrics for Attention Estimation with Application to e-Learning [18.36413246876648]
本研究では,Webカメラビデオに適用した顔分析手法のアンサンブルを用いて,注意レベル(認知的負荷)を推定する革新的な手法を提案する。
我々のアプローチは、最先端の顔分析技術を適用し、ユーザの認知的負荷を、高い注意や低い注意の形で定量化する。
提案手法は,mEBAL2ベンチマークを用いて,既存の最先端の精度を向上する。
論文 参考訳(メタデータ) (2024-08-10T11:39:11Z) - MuJo: Multimodal Joint Feature Space Learning for Human Activity Recognition [2.7532797256542403]
HAR(Human Activity Recognition)は、人工知能における長年の問題であり、幅広い分野で応用されている。
本研究では,HAR 性能を向上させるため,総合的な Fitness Multimodal Activity データセット (FiMAD) を導入する。
本研究では,MM-Fit,myoGym, MotionSense, MHEALTHなどの実HARデータセットの性能向上を図る。
論文 参考訳(メタデータ) (2024-06-06T08:42:36Z) - MultiIoT: Benchmarking Machine Learning for the Internet of Things [70.74131118309967]
次世代の機械学習システムは、物理的世界に対する知覚と相互作用に長けなければならない。
運動、熱、位置情報、深度、無線信号、ビデオ、オーディオからの知覚データは、物理環境の状態をモデル化するためにますます使われています。
既存の取り組みは、しばしば単一の感覚的モダリティまたは予測タスクに特化している。
本稿は、12のモダリティと8つの現実世界タスクから115万以上のサンプルを含む、これまでで最も拡張的で統一されたIoTベンチマークであるMultiIoTを提案する。
論文 参考訳(メタデータ) (2023-11-10T18:13:08Z) - Multimodal Stress Detection Using Facial Landmarks and Biometric Signals [1.0124625066746595]
マルチモーダル学習は、単一の信号に頼るのではなく、各モーダルの強さに乗じることを目的としている。
本稿では,顔のランドマークと生体信号を統合したストレス検出のためのマルチモーダル学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T23:20:30Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - A Convolutional Spiking Network for Gesture Recognition in
Brain-Computer Interfaces [0.8122270502556371]
脳信号に基づく手振り分類の例題問題に対して,簡単な機械学習に基づくアプローチを提案する。
本手法は脳波データとECoGデータの両方で異なる対象に一般化し,92.74-97.07%の範囲で精度が向上することを示した。
論文 参考訳(メタデータ) (2023-04-21T16:23:40Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Federated Learning: A Signal Processing Perspective [144.63726413692876]
フェデレーションラーニングは、データを明示的に交換することなく、ローカルデータセットを保持する複数のエッジデバイスでモデルをトレーニングするための新しい機械学習パラダイムです。
本稿では、信号処理ツールを用いて扱うのが自然である主な課題をカプセル化し、強調する、連合学習のための統一的な体系的フレームワークを提供する。
論文 参考訳(メタデータ) (2021-03-31T15:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。