論文の概要: EEGFuseNet: Hybrid Unsupervised Deep Feature Characterization and Fusion
for High-Dimensional EEG with An Application to Emotion Recognition
- arxiv url: http://arxiv.org/abs/2102.03777v1
- Date: Sun, 7 Feb 2021 11:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:16:27.786794
- Title: EEGFuseNet: Hybrid Unsupervised Deep Feature Characterization and Fusion
for High-Dimensional EEG with An Application to Emotion Recognition
- Title(参考訳): EEGFuseNet:高次元脳波のハイブリッド非教師付き深部特徴評価と融合と感情認識への応用
- Authors: Zhen Liang, Rushuang Zhou, Li Zhang, Linling Li, Gan Huang, Zhiguo
Zhang and Shin Ishii
- Abstract要約: 我々は,EEGFuseNetと呼ばれる,非教師付きディープCNN-RNN-GANに基づくEEG特徴量と融合モデルを提案する。
EEGFuseNetは教師なしの方法で訓練され、空間的および時間的ダイナミクスをカバーする深部脳波特徴が自動的に特徴づけられる。
有名な公開感情データベースに基づく教師なし感情認識アプリケーションにおいて、抽出した深層・低次元特徴の性能を慎重に評価する。
- 参考スコア(独自算出の注目度): 10.234189745183466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to effectively and efficiently extract valid and reliable features from
high-dimensional electroencephalography (EEG), particularly how to fuse the
spatial and temporal dynamic brain information into a better feature
representation, is a critical issue in brain data analysis. Most current EEG
studies are working on handcrafted features with a supervised modeling, which
would be limited by experience and human feedbacks to a great extent. In this
paper, we propose a practical hybrid unsupervised deep CNN-RNN-GAN based EEG
feature characterization and fusion model, which is termed as EEGFuseNet.
EEGFuseNet is trained in an unsupervised manner, and deep EEG features covering
spatial and temporal dynamics are automatically characterized. Comparing to the
handcrafted features, the deep EEG features could be considered to be more
generic and independent of any specific EEG task. The performance of the
extracted deep and low-dimensional features by EEGFuseNet is carefully
evaluated in an unsupervised emotion recognition application based on a famous
public emotion database. The results demonstrate the proposed EEGFuseNet is a
robust and reliable model, which is easy to train and manage and perform
efficiently in the representation and fusion of dynamic EEG features. In
particular, EEGFuseNet is established as an optimal unsupervised fusion model
with promising subject-based leave-one-out results in the recognition of four
emotion dimensions (valence, arousal, dominance and liking), which demonstrates
the possibility of realizing EEG based cross-subject emotion recognition in a
pure unsupervised manner.
- Abstract(参考訳): 高次元脳波(EEG)から有効で信頼性の高い特徴を効果的に抽出する方法、特に空間的および時間的動的脳情報をより良い特徴表現に融合する方法は、脳データ分析において重要な課題です。
ほとんどのEEG研究は、経験と人間のフィードバックによって非常に制限される監督されたモデリングを備えた手作りの機能に取り組んでいます。
本稿では,EEGFuseNetと呼ばれる,非教師付きディープCNN-RNN-GANに基づくEEG特徴量と融合モデルを提案する。
EEGFuseNetは教師なしの方法で訓練され、空間的および時間的ダイナミクスをカバーする深部脳波特徴が自動的に特徴づけられる。
ハンドクラフト機能と比較すると、ディープEEG機能はより汎用的で、特定のEEGタスクとは独立していると見なすことができる。
eegfusenetによって抽出された深層および低次元特徴の性能は、有名な公開感情データベースに基づく教師なし感情認識アプリケーションにおいて慎重に評価される。
その結果、提案されたEEGFuseNetは堅牢で信頼性の高いモデルであり、動的EEG機能の表現と融合において効率的にトレーニング、管理、実行が容易である。
特に、EEGFuseNetは、EEGベースのクロスサブジェクト感情認識を純粋な非監視方法で実現する可能性を実証する4つの感情次元(有価、興奮、支配、および嗜好)の認識において有望な主観ベースの離職結果と最適な非監視融合モデルとして確立されています。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - Emotion-Agent: Unsupervised Deep Reinforcement Learning with Distribution-Prototype Reward for Continuous Emotional EEG Analysis [2.1645626994550664]
連続脳波(EEG)信号は、感情脳-コンピュータインターフェース(aBCI)の応用に広く用いられている。
脳波信号から関連性および情報的感情モーメントを自動的に識別する,非教師なしの深層強化学習フレームワーク Emotion-Agent を提案する。
Emotion-AgentはPPO(Proximal Policy Optimization)を用いて訓練され、安定かつ効率的な収束を実現する。
論文 参考訳(メタデータ) (2024-08-22T04:29:25Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion [49.1574468325115]
脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T22:46:43Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders [27.3162026528455]
我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
論文 参考訳(メタデータ) (2022-07-16T19:25:29Z) - Task-oriented Self-supervised Learning for Anomaly Detection in
Electroencephalography [51.45515911920534]
タスク指向型自己教師型学習手法を提案する。
大きなカーネルを持つ特定の2つの分岐畳み込みニューラルネットワークを特徴抽出器として設計する。
効果的に設計され、訓練された特徴抽出器は、より優れた特徴表現を脳波から抽出できることが示されている。
論文 参考訳(メタデータ) (2022-07-04T13:15:08Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Investigating EEG-Based Functional Connectivity Patterns for Multimodal
Emotion Recognition [8.356765961526955]
本稿では, 強度, クラスタリング, 係数, 固有ベクトル中心性という3つの機能接続ネットワーク特性について検討する。
感情認識における脳波接続機能の識別能力は,3つの公開脳波データセットで評価される。
脳波の機能的接続特徴と眼球運動や生理的信号の特徴を組み合わせたマルチモーダル感情認識モデルを構築した。
論文 参考訳(メタデータ) (2020-04-04T16:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。