論文の概要: Multimodal Affective States Recognition Based on Multiscale CNNs and
Biologically Inspired Decision Fusion Model
- arxiv url: http://arxiv.org/abs/1911.12918v2
- Date: Fri, 28 Apr 2023 02:42:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 18:16:56.031286
- Title: Multimodal Affective States Recognition Based on Multiscale CNNs and
Biologically Inspired Decision Fusion Model
- Title(参考訳): マルチスケールCNNと生体誘発決定融合モデルに基づくマルチモーダル影響状態認識
- Authors: Yuxuan Zhao, Xinyan Cao, Jinlong Lin, Dunshan Yu, Xixin Cao
- Abstract要約: マルチモーダルな生理的信号に基づく感情状態認識法はまだ十分に活用されていない。
本稿では,マルチスケール畳み込みニューラルネットワーク(Multiscale CNN)と,感情状態認識のための生物学的にインスパイアされた決定融合モデルを提案する。
その結果, 融合モデルでは, 単一モダリティ信号と比較すると, 感情状態認識の精度が有意に向上することがわかった。
- 参考スコア(独自算出の注目度): 9.006757372508366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been an encouraging progress in the affective states recognition
models based on the single-modality signals as electroencephalogram (EEG)
signals or peripheral physiological signals in recent years. However,
multimodal physiological signals-based affective states recognition methods
have not been thoroughly exploited yet. Here we propose Multiscale
Convolutional Neural Networks (Multiscale CNNs) and a biologically inspired
decision fusion model for multimodal affective states recognition. Firstly, the
raw signals are pre-processed with baseline signals. Then, the High Scale CNN
and Low Scale CNN in Multiscale CNNs are utilized to predict the probability of
affective states output for EEG and each peripheral physiological signal
respectively. Finally, the fusion model calculates the reliability of each
single-modality signals by the Euclidean distance between various class labels
and the classification probability from Multiscale CNNs, and the decision is
made by the more reliable modality information while other modalities
information is retained. We use this model to classify four affective states
from the arousal valence plane in the DEAP and AMIGOS dataset. The results show
that the fusion model improves the accuracy of affective states recognition
significantly compared with the result on single-modality signals, and the
recognition accuracy of the fusion result achieve 98.52% and 99.89% in the DEAP
and AMIGOS dataset respectively.
- Abstract(参考訳): 近年,心電図(eeg)信号や末梢生理信号などの単一モダリティ信号に基づく感情状態認識モデルが進歩している。
しかし、マルチモーダルな生理学的信号に基づく感情状態認識法はまだ十分に活用されていない。
本稿では,マルチスケール畳み込みニューラルネットワーク(Multiscale CNN)と,マルチモーダルな感情状態認識のための生物学的な決定融合モデルを提案する。
まず、原信号がベースライン信号で前処理される。
次に、マルチスケールCNNにおける高スケールCNNと低スケールCNNを用いて、それぞれ脳波および周辺生理信号に対して出力される感情状態の確率を予測する。
最後に、融合モデルは、様々なクラスラベル間のユークリッド距離とマルチスケールCNNからの分類確率による各単一モード信号の信頼性を算出し、他のモダリティ情報を保持しながら、より信頼性の高いモダリティ情報によって決定を行う。
我々はこのモデルを用いて、DEAPおよびAMIGOSデータセットの覚醒価面から4つの感情状態の分類を行う。
その結果、融合モデルでは、単一モダリティ信号の結果と比較して感情状態認識の精度が大幅に向上し、deapとamigosデータセットでは、融合結果の認識精度がそれぞれ98.52%と99.89%となった。
関連論文リスト
- Multi-scale Quaternion CNN and BiGRU with Cross Self-attention Feature Fusion for Fault Diagnosis of Bearing [5.3598912592106345]
深層学習は断層診断(FD)に著しい進歩をもたらした
マルチスケール畳み込み畳み込みニューラルネットワーク(MQCNN)、双方向ゲートリカレントユニット(BiG)、クロス自己注意機能融合(CSAFF)を統合した新しいFDモデルを提案する。
論文 参考訳(メタデータ) (2024-05-25T07:55:02Z) - Transformer-based Self-supervised Multimodal Representation Learning for
Wearable Emotion Recognition [2.4364387374267427]
ウェアラブル感情認識のための新しい自己教師型学習(SSL)フレームワークを提案する。
本手法は様々な感情分類タスクにおいて最先端の結果を得た。
論文 参考訳(メタデータ) (2023-03-29T19:45:55Z) - Subject-Independent Drowsiness Recognition from Single-Channel EEG with
an Interpretable CNN-LSTM model [0.8250892979520543]
単一チャネル脳波信号からの主観的非依存的眠気認識のための新しい畳み込みニューラルネットワーク(CNN)-Long Short-Term Memory(LSTM)モデルを提案する。
その結果, 公立データセット上での被写体独立性認識において, 11人の被写体の平均精度は72.97%であった。
論文 参考訳(メタデータ) (2021-11-21T10:37:35Z) - Learning to Perform Downlink Channel Estimation in Massive MIMO Systems [72.76968022465469]
大規模マルチインプット・マルチアウトプット(MIMO)システムにおけるダウンリンク(DL)チャネル推定について検討する。
一般的なアプローチは、チャネル硬化によって動機付けられた推定値として平均値を使用することである。
本稿では2つの新しい推定法を提案する。
論文 参考訳(メタデータ) (2021-09-06T13:42:32Z) - Ensemble of Convolution Neural Networks on Heterogeneous Signals for
Sleep Stage Scoring [63.30661835412352]
本稿では,脳波以外の追加信号の利用の利便性について検討し,比較する。
最も優れたモデルである深部分離畳み込みニューラルネットワークのアンサンブルは86.06%の精度を達成した。
論文 参考訳(メタデータ) (2021-07-23T06:37:38Z) - EEG-based Cross-Subject Driver Drowsiness Recognition with an
Interpretable Convolutional Neural Network [0.0]
我々は,新しい畳み込みニューラルネットワークと解釈手法を組み合わせることで,分類の重要な特徴のサンプルワイズ分析を可能にする。
その結果,11名の被験者に対して平均78.35%の精度が得られた。
論文 参考訳(メタデータ) (2021-05-30T14:47:20Z) - Convolutional Neural Networks for Sleep Stage Scoring on a Two-Channel
EEG Signal [63.18666008322476]
睡眠障害は、世界中の主要な病気の1つです。
専門家が使用する基本的なツールはPolysomnogramで、睡眠中に記録された様々な信号の集合である。
専門家は、標準的なガイドラインの1つに従って異なる信号を採点する必要があります。
論文 参考訳(メタデータ) (2021-03-30T09:59:56Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Interpreting Deep Learning Models for Epileptic Seizure Detection on EEG
signals [4.748221780751802]
ディープラーニング(DL)は、しばしば人工知能ベースの医療意思決定支援の最先端とみなされます。
臨床現場では未だに実装されており、ニューラルネットワークモデルの解釈能力が不十分なため、臨床医の信頼は低い。
脳波信号に基づくてんかん発作のオンライン検出の文脈で解釈可能なDLモデルを開発することでこの問題に対処した。
論文 参考訳(メタデータ) (2020-12-22T11:10:23Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。