論文の概要: Human Emotion Classification based on EEG Signals Using Recurrent Neural
Network And KNN
- arxiv url: http://arxiv.org/abs/2205.08419v1
- Date: Tue, 10 May 2022 16:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 13:26:46.251703
- Title: Human Emotion Classification based on EEG Signals Using Recurrent Neural
Network And KNN
- Title(参考訳): リカレントニューラルネットワークとKNNを用いた脳波信号に基づく人間の感情分類
- Authors: Shashank Joshi and Falak Joshi
- Abstract要約: 脳波データからの感情分類が最近注目されている。
脳波信号は脳-コンピュータインタフェースにとって重要なリソースである。
チャネル選択前処理により, 善, 中, 負の感情に関連する脳波信号が同定された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In human contact, emotion is very crucial. Attributes like words, voice
intonation, facial expressions, and kinesics can all be used to portray one's
feelings. However, brain-computer interface (BCI) devices have not yet reached
the level required for emotion interpretation. With the rapid development of
machine learning algorithms, dry electrode techniques, and different real-world
applications of the brain-computer interface for normal individuals, emotion
categorization from EEG data has recently gotten a lot of attention.
Electroencephalogram (EEG) signals are a critical resource for these systems.
The primary benefit of employing EEG signals is that they reflect true emotion
and are easily resolved by computer systems. In this work, EEG signals
associated with good, neutral, and negative emotions were identified using
channel selection preprocessing. However, researchers had a limited grasp of
the specifics of the link between various emotional states until now. To
identify EEG signals, we used discrete wavelet transform and machine learning
techniques such as recurrent neural network (RNN) and k-nearest neighbor (kNN)
algorithm. Initially, the classifier methods were utilized for channel
selection. As a result, final feature vectors were created by integrating the
features of EEG segments from these channels. Using the RNN and kNN algorithms,
the final feature vectors with connected positive, neutral, and negative
emotions were categorized independently. The classification performance of both
techniques is computed and compared. Using RNN and kNN, the average overall
accuracies were 94.844 % and 93.438 %, respectively.
- Abstract(参考訳): 人間の接触では、感情はとても重要です。
言葉、音声イントネーション、表情、キネシスといった属性は、すべて人の感情を表現するのに使うことができる。
しかし、脳-コンピュータインタフェース(BCI)デバイスはまだ感情解釈に必要なレベルに達していない。
機械学習アルゴリズムの急速な開発、ドライ電極技術、および脳-コンピュータインタフェースの様々な現実世界への応用により、脳波データからの感情分類が最近注目を集めている。
脳波(EEG)信号はこれらのシステムにとって重要な資源である。
eeg信号を使用する主な利点は、真の感情を反映し、コンピュータシステムによって容易に解決される点である。
本研究では,チャネル選択前処理を用いて,善,中,負の感情に関連する脳波信号を同定した。
しかし、研究者はこれまでの様々な感情状態の関連を限定的に把握していた。
脳波信号を識別するために、離散ウェーブレット変換と、リカレントニューラルネットワーク(RNN)やk-nearest neighbor(kNN)アルゴリズムなどの機械学習技術を用いた。
当初、分類法はチャネル選択に利用されていた。
その結果、これらのチャネルからEEGセグメントの機能を統合することで、最終的な特徴ベクトルが生成される。
rnn と knn のアルゴリズムを用いて, 正, 中性, 負の感情を連結した最終特徴ベクトルを独立に分類した。
両手法の分類性能を計算・比較する。
rnn と knn を用いて, 平均誤差は94.844 %, 93.438 %であった。
関連論文リスト
- Implementation of AI Deep Learning Algorithm For Multi-Modal Sentiment
Analysis [0.9065034043031668]
2チャンネル畳み込みニューラルネットワークとリングネットワークを組み合わせることで,マルチモーダル感情認識手法を確立した。
単語はGloVeでベクトル化され、ワードベクトルは畳み込みニューラルネットワークに入力される。
論文 参考訳(メタデータ) (2023-11-19T05:49:39Z) - Unveiling Emotions from EEG: A GRU-Based Approach [2.580765958706854]
ゲーテッド・リカレント・ユニット(GRU)アルゴリズムは、感情状態を予測するために脳波信号が使えるかどうかをテストする。
我々の公開データセットは、幸せ、中立、ネガティブな感情を呼び起こす刺激にさらされた人々の脳波記録と同様に、中立なデータを休ませることから成り立っている。
論文 参考訳(メタデータ) (2023-07-20T11:04:46Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - A Convolutional Spiking Network for Gesture Recognition in
Brain-Computer Interfaces [0.8122270502556371]
脳信号に基づく手振り分類の例題問題に対して,簡単な機械学習に基づくアプローチを提案する。
本手法は脳波データとECoGデータの両方で異なる対象に一般化し,92.74-97.07%の範囲で精度が向上することを示した。
論文 参考訳(メタデータ) (2023-04-21T16:23:40Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Attention Driven Fusion for Multi-Modal Emotion Recognition [39.295892047505816]
本稿では,感情分類のためのテキストと音響データを活用・融合するための深層学習に基づくアプローチを提案する。
我々は、帯域通過フィルタを用いたパラメータ化シンク関数に基づくSincNet層を用いて、生音声から音響特徴を抽出し、DCNNで処理する。
テキスト処理では,N-gramレベルの相関を推定するために,2つの分岐(DCNNとBi-direction RNNとDCNN)を並列に使用する。
論文 参考訳(メタデータ) (2020-09-23T08:07:58Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - An End-to-End Visual-Audio Attention Network for Emotion Recognition in
User-Generated Videos [64.91614454412257]
畳み込みニューラルネットワーク(CNN)に基づくエンドツーエンドの映像感情認識を提案する。
具体的には,空間的,チャネル的,時間的注意を視覚的に3D CNNに統合し,時間的注意をオーディオ2D CNNに組み込む新しいアーキテクチャである,深層ビジュアル・オーディオ・アテンション・ネットワーク(VAANet)を開発した。
論文 参考訳(メタデータ) (2020-02-12T15:33:59Z) - EEG-based Brain-Computer Interfaces (BCIs): A Survey of Recent Studies
on Signal Sensing Technologies and Computational Intelligence Approaches and
their Applications [65.32004302942218]
Brain-Computer Interface (BCI) はユーザとシステム間の強力なコミュニケーションツールである。
近年の技術進歩は、脳波(EEG)に基づく翻訳医療用BCIへの関心が高まっている。
論文 参考訳(メタデータ) (2020-01-28T10:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。