論文の概要: SensEmo: Enabling Affective Learning through Real-time Emotion Recognition with Smartwatches
- arxiv url: http://arxiv.org/abs/2407.09911v1
- Date: Sat, 13 Jul 2024 15:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 20:18:01.889735
- Title: SensEmo: Enabling Affective Learning through Real-time Emotion Recognition with Smartwatches
- Title(参考訳): SensEmo: スマートウォッチを用いたリアルタイム感情認識による感情学習の実現
- Authors: Kushan Choksi, Hongkai Chen, Karan Joshi, Sukrutha Jade, Shahriar Nirjon, Shan Lin,
- Abstract要約: SensEmoは、感情学習用に設計されたスマートウォッチベースのシステムだ。
SensEmoは学生の感情を88.9%の精度で認識している。
SensEmoは、学生がより良いオンライン学習結果を達成するのを助ける。
- 参考スコア(独自算出の注目度): 3.7303587372123315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research has demonstrated the capability of physiological signals to infer both user emotional and attention responses. This presents an opportunity for leveraging widely available physiological sensors in smartwatches, to detect real-time emotional cues in users, such as stress and excitement. In this paper, we introduce SensEmo, a smartwatch-based system designed for affective learning. SensEmo utilizes multiple physiological sensor data, including heart rate and galvanic skin response, to recognize a student's motivation and concentration levels during class. This recognition is facilitated by a personalized emotion recognition model that predicts emotional states based on degrees of valence and arousal. With real-time emotion and attention feedback from students, we design a Markov decision process-based algorithm to enhance student learning effectiveness and experience by by offering suggestions to the teacher regarding teaching content and pacing. We evaluate SensEmo with 22 participants in real-world classroom environments. Evaluation results show that SensEmo recognizes student emotion with an average of 88.9% accuracy. More importantly, SensEmo assists students to achieve better online learning outcomes, e.g., an average of 40.0% higher grades in quizzes, over the traditional learning without student emotional feedback.
- Abstract(参考訳): 近年の研究では、ユーザーの感情と注意の両方を推測する生理的信号の能力が実証されている。
これにより、スマートウォッチで広く利用可能な生理的センサーを活用する機会が得られ、ストレスや興奮といったリアルタイムな感情的手がかりを検出することができる。
本稿では,感情学習のためのスマートウォッチシステムであるSensEmoを紹介する。
SensEmoは、心拍数やガルバニック皮膚反応などの複数の生理的センサーデータを使用して、授業中の学生のモチベーションと濃度レベルを認識する。
この認識は、原子価と覚醒度に基づいて感情状態を予測するパーソナライズされた感情認識モデルによって促進される。
学生からのリアルタイムの感情と注意フィードバックにより、教師にコンテンツやペアリングに関する提案を提供することで、学生の学習効率と経験を向上させるマルコフ決定プロセスに基づくアルゴリズムを設計する。
現実世界の教室環境において,22人を対象にSensEmoを評価した。
評価の結果,SensEmoは学生の感情を平均88.9%の精度で認識していることがわかった。
さらに重要なのは、SensEmoは、学生の感情的なフィードバックを伴わない従来の学習よりも、オンライン学習の成績が平均40.0%高くなることだ。
関連論文リスト
- Real-time EEG-based Emotion Recognition Model using Principal Component
Analysis and Tree-based Models for Neurohumanities [0.0]
本研究は,没入空間内における文脈の学習過程における情緒的モニタリングを取り入れたソリューションを提案する。
脳波に基づくリアルタイム感情検出システムは、特定の感情を解釈し分類するために開発された。
このシステムは、感情データをインタラクティブなプラットフォームに統合し、包括的で没入的な学習環境を構築することを目的としている。
論文 参考訳(メタデータ) (2024-01-28T20:02:13Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - Enhancing Student Engagement in Online Learning through Facial
Expression Analysis and Complex Emotion Recognition using Deep Learning [1.3812010983144802]
本稿では,オンライン学習セッションにおける学生のエンゲージメントレベルを評価するために,表情に基づく深層学習技術を用いた新しいアプローチを提案する。
この課題に対処するため、基本的な感情を組み合わせることで、混乱、満足度、失望、フラストレーションなどの4つの複雑な感情の生成を提案した。
提案手法は畳み込みニューラルネットワーク(CNN)モデルを用いて学習者の基本的な感情状態を正確に分類する。
論文 参考訳(メタデータ) (2023-11-17T06:07:54Z) - WEARS: Wearable Emotion AI with Real-time Sensor data [0.8740570557632509]
スマートウォッチセンサを用いてユーザの感情を予測するシステムを提案する。
英語と地域語を併用した動画をリアルタイムに収集する枠組みを設計する。
また、心拍数、加速度計、ジャイロセンサーデータなどの特徴が気分に与える影響について、アブレーション調査を行った。
論文 参考訳(メタデータ) (2023-08-22T11:03:00Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - EmoSens: Emotion Recognition based on Sensor data analysis using
LightGBM [1.6197357532363172]
本研究は、データセット上の決定木、ランダムフォレスト、XGBoost、LightGBMなどの教師あり学習モデルの性能について検討した。
XGBoost と LightGBM を9種類の感情クラスに用い,92.5%の高認識率を得た。
論文 参考訳(メタデータ) (2022-07-12T13:52:32Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。