論文の概要: MDEAW: A Multimodal Dataset for Emotion Analysis through EDA and PPG
signals from wireless wearable low-cost off-the-shelf Devices
- arxiv url: http://arxiv.org/abs/2207.06410v1
- Date: Thu, 14 Jul 2022 07:04:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 00:26:37.268330
- Title: MDEAW: A Multimodal Dataset for Emotion Analysis through EDA and PPG
signals from wireless wearable low-cost off-the-shelf Devices
- Title(参考訳): mdeaw: ワイヤレスウェアラブル市販デバイスからのedaおよびppg信号による感情分析のためのマルチモーダルデータセット
- Authors: Arijit Nandi, Fatos Xhafa, Laia Subirats, Santi Fort
- Abstract要約: 本稿では,バルセロナのサバデルにあるユーレカット・アカデミーの教員が授業中に記録したEDA(Electronrmal Activity)と光麻痺(Photoplethys, PPG)信号からなるマルチモーダルデータベースMDEAWについて述べる。
信号はポータブル、ウェアラブル、ワイヤレス、低コスト、オフザシェルフの機器を使用してキャプチャされ、毎日のアプリケーションで感情的コンピューティング手法を使用できる可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MDEAW, a multimodal database consisting of Electrodermal Activity
(EDA) and Photoplethysmography (PPG) signals recorded during the exams for the
course taught by the teacher at Eurecat Academy, Sabadell, Barcelona in order
to elicit the emotional reactions to the students in a classroom scenario.
Signals from 10 students were recorded along with the students' self-assessment
of their affective state after each stimulus, in terms of 6 basic emotion
states. All the signals were captured using portable, wearable, wireless,
low-cost, and off-the-shelf equipment that has the potential to allow the use
of affective computing methods in everyday applications. A baseline for
student-wise affect recognition using EDA and PPG-based features, as well as
their fusion, was established through ReMECS, Fed-ReMECS, and Fed-ReMECS-U.
These results indicate the prospects of using low-cost devices for affective
state recognition applications. The proposed database will be made publicly
available in order to allow researchers to achieve a more thorough evaluation
of the suitability of these capturing devices for emotion state recognition
applications.
- Abstract(参考訳): 本研究では,バルセロナ・サバデルのユーレカット・アカデミーの教員が授業中に記録した,電気活動(EDA)と光胸腺撮影(PPG)の多モードデータベースMDEAWについて,教室のシナリオにおける学生の感情的反応を引き出す。
刺激後の情緒状態の自己評価とともに,6つの基本的な感情状態から10名の学生の信号が記録された。
すべての信号は、ポータブル、ウェアラブル、ワイヤレス、低コスト、および市販の機器を使用してキャプチャされ、毎日のアプリケーションで感情的コンピューティング手法を使用できる可能性がある。
ReMECS, Fed-ReMECS, Fed-ReMECS-U を用いて, EDA と PPG に基づく特徴を用いた学生の感情認識のベースラインを構築した。
これらの結果は、情緒的状態認識アプリケーションに低価格デバイスを使用することの可能性を示している。
提案したデータベースは、研究者がこれらのキャプチャーデバイスによる感情状態認識アプリケーションへの適合性をより徹底的に評価できるようにするために、公開されている。
関連論文リスト
- Real-time EEG-based Emotion Recognition Model using Principal Component
Analysis and Tree-based Models for Neurohumanities [0.0]
本研究は,没入空間内における文脈の学習過程における情緒的モニタリングを取り入れたソリューションを提案する。
脳波に基づくリアルタイム感情検出システムは、特定の感情を解釈し分類するために開発された。
このシステムは、感情データをインタラクティブなプラットフォームに統合し、包括的で没入的な学習環境を構築することを目的としている。
論文 参考訳(メタデータ) (2024-01-28T20:02:13Z) - Unveiling Emotions from EEG: A GRU-Based Approach [2.580765958706854]
ゲーテッド・リカレント・ユニット(GRU)アルゴリズムは、感情状態を予測するために脳波信号が使えるかどうかをテストする。
我々の公開データセットは、幸せ、中立、ネガティブな感情を呼び起こす刺激にさらされた人々の脳波記録と同様に、中立なデータを休ませることから成り立っている。
論文 参考訳(メタデータ) (2023-07-20T11:04:46Z) - EmoSens: Emotion Recognition based on Sensor data analysis using
LightGBM [1.6197357532363172]
本研究は、データセット上の決定木、ランダムフォレスト、XGBoost、LightGBMなどの教師あり学習モデルの性能について検討した。
XGBoost と LightGBM を9種類の感情クラスに用い,92.5%の高認識率を得た。
論文 参考訳(メタデータ) (2022-07-12T13:52:32Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - Attentive Cross-modal Connections for Deep Multimodal Wearable-based
Emotion Recognition [7.559720049837459]
本稿では、畳み込みニューラルネットワーク間で情報を共有するための、新しい注意深いクロスモーダル接続を提案する。
具体的には、EDAとECGの中間表現を共有することにより、感情分類を改善する。
実験の結果,提案手法は強いマルチモーダル表現を学習し,多くのベースライン法より優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-04T18:40:32Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z) - DeepBrain: Towards Personalized EEG Interaction through Attentional and
Embedded LSTM Learning [20.300051894095173]
本稿では,低コストデバイスであるDeepBrainからの粗い脳波信号の組込み学習を通じて,脳-ロボット間相互作用(BRI)を実現するエンド・ツー・エンドのソリューションを提案する。
1)脳波信号の時間依存性とその分類を扱うための特定の前処理技術を備えた長期記憶(拡張LSTM)構造を提案する。
我々の実世界の実験は、低コストで提案されたエンドツーエンドのソリューションが、良好な実行速度、精度、エネルギー効率を実現することを実証している。
論文 参考訳(メタデータ) (2020-02-06T03:34:08Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。