論文の概要: Emotion Detection on User Front-Facing App Interfaces for Enhanced Schedule Optimization: A Machine Learning Approach
- arxiv url: http://arxiv.org/abs/2506.19280v1
- Date: Tue, 24 Jun 2025 03:21:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.46837
- Title: Emotion Detection on User Front-Facing App Interfaces for Enhanced Schedule Optimization: A Machine Learning Approach
- Title(参考訳): スケジューリング最適化のためのユーザフロントエンドアプリインタフェースの感情検出:機械学習アプローチ
- Authors: Feiting Yang, Antoine Moevus, Steve Lévesque,
- Abstract要約: 感情検出に対する2つの補完的アプローチを提示し,評価する。
心電図(ECG)信号から抽出した心拍数(HR)データを用いて、ヴァレンス、オーラル、ドミナンスの感情次元を予測し、複数の機械学習モデルを介してコンピュータ活動を分析し、マウスの動き、クリック、キーストロークパターンなどのきめ細かいユーザーインタラクションに基づいて感情を分類する行動的方法。
実世界のデータセットから得られた我々の比較分析によると、どちらの手法も有効性を示す一方で、コンピュータアクティビティに基づく手法は、特にマウス関連の相互作用において、より優れた一貫性と精度を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human-Computer Interaction (HCI) has evolved significantly to incorporate emotion recognition capabilities, creating unprecedented opportunities for adaptive and personalized user experiences. This paper explores the integration of emotion detection into calendar applications, enabling user interfaces to dynamically respond to users' emotional states and stress levels, thereby enhancing both productivity and engagement. We present and evaluate two complementary approaches to emotion detection: a biometric-based method utilizing heart rate (HR) data extracted from electrocardiogram (ECG) signals processed through Long Short-Term Memory (LSTM) and Gated Recurrent Unit (GRU) neural networks to predict the emotional dimensions of Valence, Arousal, and Dominance; and a behavioral method analyzing computer activity through multiple machine learning models to classify emotions based on fine-grained user interactions such as mouse movements, clicks, and keystroke patterns. Our comparative analysis, from real-world datasets, reveals that while both approaches demonstrate effectiveness, the computer activity-based method delivers superior consistency and accuracy, particularly for mouse-related interactions, which achieved approximately 90\% accuracy. Furthermore, GRU networks outperformed LSTM models in the biometric approach, with Valence prediction reaching 84.38\% accuracy.
- Abstract(参考訳): HCI(Human-Computer Interaction)は、感情認識機能を取り入れ、適応的でパーソナライズされたユーザーエクスペリエンスのための前例のない機会を生み出している。
本稿では、カレンダーアプリケーションへの感情検出の統合について検討し、ユーザインタフェースがユーザーの感情状態やストレスレベルに動的に対応できるようにし、生産性とエンゲージメントを両立させる。
本研究では,長期記憶(LSTM)とGRU(Gated Recurrent Unit)ニューラルネットワークを用いて処理された心電図(ECG)信号から抽出した心拍数(HR)データを用いて,Valence,Arousal,Dominanceの感情次元を予測し,複数の機械学習モデルを用いてコンピュータ活動を分析し,マウスの動き,クリック,キーストロークパターンなどの微妙なユーザインタラクションに基づいて感情を分類する行動的手法を提案する。
実世界のデータセットから比較分析したところ、どちらの手法も有効性を示す一方で、コンピュータアクティビティベースの手法は、特に約90%の精度を達成したマウス関連の相互作用に対して、優れた一貫性と精度を提供することがわかった。
さらに、GRUネットワークはバイオメトリックアプローチでLSTMモデルより優れ、Valence予測は84.38\%の精度に達した。
関連論文リスト
- EEG Emotion Copilot: Optimizing Lightweight LLMs for Emotional EEG Interpretation with Assisted Medical Record Generation [12.707059419820848]
本稿では,脳波信号から直接感情状態を認識する脳波感情コパイロットについて述べる。
その後、パーソナライズされた診断と治療の提案を生成し、最終的に支援された電子カルテの自動化をサポートする。
提案手法は,医療分野における情動コンピューティングの適用を推し進めることが期待される。
論文 参考訳(メタデータ) (2024-09-30T19:15:05Z) - Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features [50.82725748981231]
エンゲージメント測定は、医療、教育、サービスに応用される。
生理的特徴と行動的特徴の使用は可能であるが、従来の生理的測定の非現実性は接触センサーの必要性により生じる。
コンタクトセンサの代替として, 教師なし光胸腺造影(胸腔鏡)の有用性を実証する。
論文 参考訳(メタデータ) (2024-04-05T20:39:16Z) - GPT as Psychologist? Preliminary Evaluations for GPT-4V on Visual Affective Computing [74.68232970965595]
MLLM(Multimodal large language model)は、テキスト、音声、画像、ビデオなどの複数のソースからの情報を処理し、統合するように設計されている。
本稿では、視覚的情緒的タスクと推論タスクにまたがる5つの重要な能力を持つMLLMの適用性を評価する。
論文 参考訳(メタデータ) (2024-03-09T13:56:25Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - A Brief Survey of Machine Learning Methods for Emotion Prediction using
Physiological Data [0.974672460306765]
本稿では,スマートフォンや生理データをリアルタイムに予測するための機械学習手法について検討する。
本稿では,正確な感情予測を実現するための機械学習手法の多様性を示す。
今後の作業では、以下の問題を考慮し、パフォーマンスを改善することができる。
論文 参考訳(メタデータ) (2022-01-17T19:46:12Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。