論文の概要: MDEAW: A Multimodal Dataset for Emotion Analysis through EDA and PPG
signals from wireless wearable low-cost off-the-shelf Devices
- arxiv url: http://arxiv.org/abs/2207.06410v1
- Date: Thu, 14 Jul 2022 07:04:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 00:26:37.268330
- Title: MDEAW: A Multimodal Dataset for Emotion Analysis through EDA and PPG
signals from wireless wearable low-cost off-the-shelf Devices
- Title(参考訳): mdeaw: ワイヤレスウェアラブル市販デバイスからのedaおよびppg信号による感情分析のためのマルチモーダルデータセット
- Authors: Arijit Nandi, Fatos Xhafa, Laia Subirats, Santi Fort
- Abstract要約: 本稿では,バルセロナのサバデルにあるユーレカット・アカデミーの教員が授業中に記録したEDA(Electronrmal Activity)と光麻痺(Photoplethys, PPG)信号からなるマルチモーダルデータベースMDEAWについて述べる。
信号はポータブル、ウェアラブル、ワイヤレス、低コスト、オフザシェルフの機器を使用してキャプチャされ、毎日のアプリケーションで感情的コンピューティング手法を使用できる可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MDEAW, a multimodal database consisting of Electrodermal Activity
(EDA) and Photoplethysmography (PPG) signals recorded during the exams for the
course taught by the teacher at Eurecat Academy, Sabadell, Barcelona in order
to elicit the emotional reactions to the students in a classroom scenario.
Signals from 10 students were recorded along with the students' self-assessment
of their affective state after each stimulus, in terms of 6 basic emotion
states. All the signals were captured using portable, wearable, wireless,
low-cost, and off-the-shelf equipment that has the potential to allow the use
of affective computing methods in everyday applications. A baseline for
student-wise affect recognition using EDA and PPG-based features, as well as
their fusion, was established through ReMECS, Fed-ReMECS, and Fed-ReMECS-U.
These results indicate the prospects of using low-cost devices for affective
state recognition applications. The proposed database will be made publicly
available in order to allow researchers to achieve a more thorough evaluation
of the suitability of these capturing devices for emotion state recognition
applications.
- Abstract(参考訳): 本研究では,バルセロナ・サバデルのユーレカット・アカデミーの教員が授業中に記録した,電気活動(EDA)と光胸腺撮影(PPG)の多モードデータベースMDEAWについて,教室のシナリオにおける学生の感情的反応を引き出す。
刺激後の情緒状態の自己評価とともに,6つの基本的な感情状態から10名の学生の信号が記録された。
すべての信号は、ポータブル、ウェアラブル、ワイヤレス、低コスト、および市販の機器を使用してキャプチャされ、毎日のアプリケーションで感情的コンピューティング手法を使用できる可能性がある。
ReMECS, Fed-ReMECS, Fed-ReMECS-U を用いて, EDA と PPG に基づく特徴を用いた学生の感情認識のベースラインを構築した。
これらの結果は、情緒的状態認識アプリケーションに低価格デバイスを使用することの可能性を示している。
提案したデータベースは、研究者がこれらのキャプチャーデバイスによる感情状態認識アプリケーションへの適合性をより徹底的に評価できるようにするために、公開されている。
関連論文リスト
- Online Multi-level Contrastive Representation Distillation for Cross-Subject fNIRS Emotion Recognition [11.72499878247794]
我々は,OMCRD(Online Multi-level Contrastive Representation Distillation framework)と呼ばれる,クロスオブジェクトなfNIRS感情認識手法を提案する。
OMCRDは、複数の軽量学生ネットワーク間の相互学習のために設計されたフレームワークである。
いくつかの実験結果から,OMCRDは情緒的知覚や情緒的イメージタスクにおいて,最先端の成果を達成できることが示された。
論文 参考訳(メタデータ) (2024-09-24T13:30:15Z) - Masked Video and Body-worn IMU Autoencoder for Egocentric Action Recognition [24.217068565936117]
本稿では,身近なIMUの動作データをエゴセントリックなビデオと統合する行動認識手法を提案する。
体全体に配置された複数のIMUデバイスの複雑な関係をモデル化するために、複数のIMUデバイスにおける協調力学を利用する。
実験により,提案手法は複数の公開データセット上で最先端の性能を実現することができることが示された。
論文 参考訳(メタデータ) (2024-07-09T07:53:16Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - Real-time EEG-based Emotion Recognition Model using Principal Component
Analysis and Tree-based Models for Neurohumanities [0.0]
本研究は,没入空間内における文脈の学習過程における情緒的モニタリングを取り入れたソリューションを提案する。
脳波に基づくリアルタイム感情検出システムは、特定の感情を解釈し分類するために開発された。
このシステムは、感情データをインタラクティブなプラットフォームに統合し、包括的で没入的な学習環境を構築することを目的としている。
論文 参考訳(メタデータ) (2024-01-28T20:02:13Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z) - DeepBrain: Towards Personalized EEG Interaction through Attentional and
Embedded LSTM Learning [20.300051894095173]
本稿では,低コストデバイスであるDeepBrainからの粗い脳波信号の組込み学習を通じて,脳-ロボット間相互作用(BRI)を実現するエンド・ツー・エンドのソリューションを提案する。
1)脳波信号の時間依存性とその分類を扱うための特定の前処理技術を備えた長期記憶(拡張LSTM)構造を提案する。
我々の実世界の実験は、低コストで提案されたエンドツーエンドのソリューションが、良好な実行速度、精度、エネルギー効率を実現することを実証している。
論文 参考訳(メタデータ) (2020-02-06T03:34:08Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。