論文の概要: Multi-Masked Querying Network for Robust Emotion Recognition from Incomplete Multi-Modal Physiological Signals
- arxiv url: http://arxiv.org/abs/2507.20737v1
- Date: Mon, 28 Jul 2025 11:41:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.096198
- Title: Multi-Masked Querying Network for Robust Emotion Recognition from Incomplete Multi-Modal Physiological Signals
- Title(参考訳): 不完全多モード生理信号からのロバスト感情認識のためのマルチタスククエリネットワーク
- Authors: Geng-Xin Xu, Xiang Zuo, Ye Li,
- Abstract要約: 本稿では,これらの問題に対処するためのMulti-Masked Querying Network(MMQ-Net)を提案する。
不完全な信号から欠落したデータを再構築するためのモダリティクエリ、感情状態の特徴に集中するためのカテゴリクエリ、関連する情報をノイズから分離するための干渉クエリを使用する。
- 参考スコア(独自算出の注目度): 2.8509297536255334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition from physiological data is crucial for mental health assessment, yet it faces two significant challenges: incomplete multi-modal signals and interference from body movements and artifacts. This paper presents a novel Multi-Masked Querying Network (MMQ-Net) to address these issues by integrating multiple querying mechanisms into a unified framework. Specifically, it uses modality queries to reconstruct missing data from incomplete signals, category queries to focus on emotional state features, and interference queries to separate relevant information from noise. Extensive experiment results demonstrate the superior emotion recognition performance of MMQ-Net compared to existing approaches, particularly under high levels of data incompleteness.
- Abstract(参考訳): 生理的データからの感情認識は精神的な健康評価に不可欠であるが、不完全なマルチモーダル信号と身体の動きや人工物からの干渉という2つの重大な課題に直面している。
本稿では,複数のクエリ機構を統一したフレームワークに統合することにより,これらの問題に対処する新しいMulti-Masked Querying Network(MMQ-Net)を提案する。
具体的には、不完全な信号から欠落したデータを再構築するモダリティクエリ、感情状態の特徴にフォーカスするカテゴリクエリ、関連する情報をノイズから分離する干渉クエリを使用する。
実験の結果,MMQ-Netの感情認識性能は既存手法に比べて優れており,特にデータ不完全性が高い。
関連論文リスト
- CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - VR Based Emotion Recognition Using Deep Multimodal Fusion With Biosignals Across Multiple Anatomical Domains [3.303674512749726]
本稿では,Squeeze-and-Excitation(SE)ブロックと組み合わせた,新しいマルチスケールアテンションベースのLSTMアーキテクチャを提案する。
提案したアーキテクチャは,ユーザスタディで検証され,評価値と覚醒レベルを分類する上で,優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-03T08:59:12Z) - Online Multi-level Contrastive Representation Distillation for Cross-Subject fNIRS Emotion Recognition [11.72499878247794]
我々は,OMCRD(Online Multi-level Contrastive Representation Distillation framework)と呼ばれる,クロスオブジェクトなfNIRS感情認識手法を提案する。
OMCRDは、複数の軽量学生ネットワーク間の相互学習のために設計されたフレームワークである。
いくつかの実験結果から,OMCRDは情緒的知覚や情緒的イメージタスクにおいて,最先端の成果を達成できることが示された。
論文 参考訳(メタデータ) (2024-09-24T13:30:15Z) - Leveraging Retrieval Augment Approach for Multimodal Emotion Recognition Under Missing Modalities [16.77191718894291]
我々は,Multimodal Emotion Recognition(RAMER)の欠如に対する検索機能強化の新たな枠組みを提案する。
我々のフレームワークは、欠落したモダリティMERタスクにおける最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-09-19T02:31:12Z) - Deep Imbalanced Learning for Multimodal Emotion Recognition in
Conversations [15.705757672984662]
会話におけるマルチモーダル感情認識(MERC)は、マシンインテリジェンスにとって重要な開発方向である。
MERCのデータの多くは自然に感情カテゴリーの不均衡な分布を示しており、研究者は感情認識に対する不均衡なデータの負の影響を無視している。
生データにおける感情カテゴリーの不均衡分布に対処するクラス境界拡張表現学習(CBERL)モデルを提案する。
我々は,IEMOCAPおよびMELDベンチマークデータセットの広範な実験を行い,CBERLが感情認識の有効性において一定の性能向上を達成したことを示す。
論文 参考訳(メタデータ) (2023-12-11T12:35:17Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - MEDUSA: Multi-scale Encoder-Decoder Self-Attention Deep Neural Network
Architecture for Medical Image Analysis [71.2022403915147]
医用画像解析に適したマルチスケールエンコーダデコーダ自己保持機構であるMEDUSAを紹介する。
我々は、COVIDx、RSNA RICORD、RSNA Pneumonia Challengeなどの医療画像分析ベンチマークの最先端性能を得た。
論文 参考訳(メタデータ) (2021-10-12T15:05:15Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z) - Deep Auto-Encoders with Sequential Learning for Multimodal Dimensional
Emotion Recognition [38.350188118975616]
本稿では、2ストリームのオートエンコーダと、感情認識のための長期記憶からなる新しいディープニューラルネットワークアーキテクチャを提案する。
野生データセットRECOLAにおけるマルチモーダル感情に関する広範な実験を行った。
実験の結果,提案手法は最先端の認識性能を達成し,既存のスキームをはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2020-04-28T01:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。