論文の概要: WEARS: Wearable Emotion AI with Real-time Sensor data
- arxiv url: http://arxiv.org/abs/2308.11673v1
- Date: Tue, 22 Aug 2023 11:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 17:18:20.030789
- Title: WEARS: Wearable Emotion AI with Real-time Sensor data
- Title(参考訳): WEARS:リアルタイムセンサーデータを用いたウェアラブル感情AI
- Authors: Dhruv Limbani, Daketi Yatin, Nitish Chaturvedi, Vaishnavi Moorthy,
Pushpalatha M, Harichandana BSS
- Abstract要約: スマートウォッチセンサを用いてユーザの感情を予測するシステムを提案する。
英語と地域語を併用した動画をリアルタイムに収集する枠組みを設計する。
また、心拍数、加速度計、ジャイロセンサーデータなどの特徴が気分に与える影響について、アブレーション調査を行った。
- 参考スコア(独自算出の注目度): 0.8740570557632509
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Emotion prediction is the field of study to understand human emotions.
Existing methods focus on modalities like text, audio, facial expressions,
etc., which could be private to the user. Emotion can be derived from the
subject's psychological data as well. Various approaches that employ
combinations of physiological sensors for emotion recognition have been
proposed. Yet, not all sensors are simple to use and handy for individuals in
their daily lives. Thus, we propose a system to predict user emotion using
smartwatch sensors. We design a framework to collect ground truth in real-time
utilizing a mix of English and regional language-based videos to invoke
emotions in participants and collect the data. Further, we modeled the problem
as binary classification due to the limited dataset size and experimented with
multiple machine-learning models. We also did an ablation study to understand
the impact of features including Heart Rate, Accelerometer, and Gyroscope
sensor data on mood. From the experimental results, Multi-Layer Perceptron has
shown a maximum accuracy of 93.75 percent for pleasant-unpleasant (high/low
valence classification) moods.
- Abstract(参考訳): 感情予測は人間の感情を理解するための研究分野である。
既存の手法では、テキスト、音声、表情などのモダリティに重点を置いている。
感情は、被験者の心理的データからも引き出すことができる。
感情認識のための生理的センサの組み合わせを用いた様々なアプローチが提案されている。
しかし、すべてのセンサーは、日常の個人にとって使いやすく便利なものではない。
そこで,スマートウォッチセンサを用いたユーザ感情予測システムを提案する。
我々は、英語と地域語を併用した動画をリアルタイムに収集する枠組みを設計し、参加者の感情を呼び起こし、データを収集する。
さらに,データセットサイズが限られているため,問題をバイナリ分類としてモデル化し,複数の機械学習モデルを実験した。
また、心拍、加速度計、ジャイロセンサーデータなどの特徴が気分に与える影響について、アブレーション調査を行った。
実験結果から、多層パーセプトロンは、不快感(高原子価分類)に対して最大93.75パーセントの精度を示した。
関連論文リスト
- SensEmo: Enabling Affective Learning through Real-time Emotion Recognition with Smartwatches [3.7303587372123315]
SensEmoは、感情学習用に設計されたスマートウォッチベースのシステムだ。
SensEmoは学生の感情を88.9%の精度で認識している。
SensEmoは、学生がより良いオンライン学習結果を達成するのを助ける。
論文 参考訳(メタデータ) (2024-07-13T15:10:58Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Towards Generalizable SER: Soft Labeling and Data Augmentation for
Modeling Temporal Emotion Shifts in Large-Scale Multilingual Speech [3.86122440373248]
段階的な感情的強度を捉えるソフトラベルシステムを提案する。
コントラスト学習にインスパイアされたWhisperエンコーダとデータ拡張手法を用いて,感情の時間的ダイナミクスを強調する。
Hume-Prosodyを微調整した後、オープンソースモデルウェイトと最初の有望な結果を公開する。
論文 参考訳(メタデータ) (2023-11-15T00:09:21Z) - Implicit Design Choices and Their Impact on Emotion Recognition Model
Development and Evaluation [5.534160116442057]
感情の主観性は、正確で堅牢な計算モデルを開発する上で大きな課題を生じさせる。
この論文は、多様なデータセットの収集から始まる感情認識の批判的な側面を調べる。
非表現的トレーニングデータの課題に対処するため、この研究はマルチモーダルストレス感情データセットを収集する。
論文 参考訳(メタデータ) (2023-09-06T02:45:42Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - EmoSens: Emotion Recognition based on Sensor data analysis using
LightGBM [1.6197357532363172]
本研究は、データセット上の決定木、ランダムフォレスト、XGBoost、LightGBMなどの教師あり学習モデルの性能について検討した。
XGBoost と LightGBM を9種類の感情クラスに用い,92.5%の高認識率を得た。
論文 参考訳(メタデータ) (2022-07-12T13:52:32Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation [65.11858854040543]
本稿では,歩行者間のロボットナビゲーションのための感情予測アルゴリズムProxEmoを提案する。
提案手法は歩行歩行から歩行者の知覚された感情を予測し,感情誘導ナビゲーションに使用する。
論文 参考訳(メタデータ) (2020-03-02T17:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。