論文の概要: EmoSens: Emotion Recognition based on Sensor data analysis using
LightGBM
- arxiv url: http://arxiv.org/abs/2207.14640v1
- Date: Tue, 12 Jul 2022 13:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-07 14:38:54.476097
- Title: EmoSens: Emotion Recognition based on Sensor data analysis using
LightGBM
- Title(参考訳): EmoSens:LightGBMを用いたセンサデータ分析に基づく感情認識
- Authors: Gayathri S, Akshat Anand, Astha Vijayvargiya, Pushpalatha M, Vaishnavi
Moorthy, Sumit Kumar, Harichandana B S S
- Abstract要約: 本研究は、データセット上の決定木、ランダムフォレスト、XGBoost、LightGBMなどの教師あり学習モデルの性能について検討した。
XGBoost と LightGBM を9種類の感情クラスに用い,92.5%の高認識率を得た。
- 参考スコア(独自算出の注目度): 1.6197357532363172
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Smart wearables have played an integral part in our day to day life. From
recording ECG signals to analysing body fat composition, the smart wearables
can do it all. The smart devices encompass various sensors which can be
employed to derive meaningful information regarding the user's physical and
psychological conditions. Our approach focuses on employing such sensors to
identify and obtain the variations in the mood of a user at a given instance
through the use of supervised machine learning techniques. The study examines
the performance of various supervised learning models such as Decision Trees,
Random Forests, XGBoost, LightGBM on the dataset. With our proposed model, we
obtained a high recognition rate of 92.5% using XGBoost and LightGBM for 9
different emotion classes. By utilizing this, we aim to improvise and suggest
methods to aid emotion recognition for better mental health analysis and mood
monitoring.
- Abstract(参考訳): スマートウェアラブルは日々の生活において不可欠な役割を担ってきた。
心電図の信号の記録から体脂肪の組成の分析まで、スマートウェアラブルはあらゆることができる。
スマートデバイスは、ユーザの身体的および心理的状態に関する有意義な情報を引き出すために使用できる様々なセンサーを包含する。
提案手法は,教師付き機械学習技術を用いて,ユーザの気分の変動を識別・把握するために,そのようなセンサを活用することに焦点を当てる。
本研究では,データセット上の決定木,ランダム林,xgboost,lightgbmなどの教師あり学習モデルの性能について検討した。
提案モデルでは9種類の感情クラスに対してxgboostとlightgbmを用いて92.5%高い認識率を得た。
これを利用することで、メンタルヘルス分析と気分モニタリングを改善するために感情認識を支援する手法を即興で提案することを目指している。
関連論文リスト
- SensEmo: Enabling Affective Learning through Real-time Emotion Recognition with Smartwatches [3.7303587372123315]
SensEmoは、感情学習用に設計されたスマートウォッチベースのシステムだ。
SensEmoは学生の感情を88.9%の精度で認識している。
SensEmoは、学生がより良いオンライン学習結果を達成するのを助ける。
論文 参考訳(メタデータ) (2024-07-13T15:10:58Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Automatic Sensor-free Affect Detection: A Systematic Literature Review [0.0]
本稿では,センサレス感情検出に関する総合的な文献レビューを行う。
この分野の明らかな成熟度は、モデルの一貫した性能によって証明されているにもかかわらず、将来の研究には十分な範囲がある。
モデル開発プラクティスやメソッドの洗練も必要です。
論文 参考訳(メタデータ) (2023-10-11T13:24:27Z) - WEARS: Wearable Emotion AI with Real-time Sensor data [0.8740570557632509]
スマートウォッチセンサを用いてユーザの感情を予測するシステムを提案する。
英語と地域語を併用した動画をリアルタイムに収集する枠組みを設計する。
また、心拍数、加速度計、ジャイロセンサーデータなどの特徴が気分に与える影響について、アブレーション調査を行った。
論文 参考訳(メタデータ) (2023-08-22T11:03:00Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。