論文の概要: Adaptive Gaussian Fuzzy Classifier for Real-Time Emotion Recognition in
Computer Games
- arxiv url: http://arxiv.org/abs/2103.03488v1
- Date: Fri, 5 Mar 2021 06:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:57:46.854467
- Title: Adaptive Gaussian Fuzzy Classifier for Real-Time Emotion Recognition in
Computer Games
- Title(参考訳): コンピュータゲームにおけるリアルタイム感情認識のための適応ガウスファジィ分類器
- Authors: Daniel Leite, Volnei Frigeri Jr., Rodrigo Medeiros
- Abstract要約: ファジィegfcは、感情パターンを認識するオンラインセミ教師付き学習アルゴリズムによってサポートされている。
我々は,個々の電極,時間窓の長さ,周波数帯がユーザ非依存eGの精度に与える影響を解析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human emotion recognition has become a need for more realistic and
interactive machines and computer systems. The greatest challenge is the
availability of high-performance algorithms to effectively manage individual
differences and nonstationarities in physiological data streams, i.e.,
algorithms that self-customize to a user with no subject-specific calibration
data. We describe an evolving Gaussian Fuzzy Classifier (eGFC), which is
supported by an online semi-supervised learning algorithm to recognize emotion
patterns from electroencephalogram (EEG) data streams. We extract features from
the Fourier spectrum of EEG data. The data are provided by 28 individuals
playing the games 'Train Sim World', 'Unravel', 'Slender The Arrival', and
'Goat Simulator' - a public dataset. Different emotions prevail, namely,
boredom, calmness, horror and joy. We analyze the effect of individual
electrodes, time window lengths, and frequency bands on the accuracy of
user-independent eGFCs. We conclude that both brain hemispheres may assist
classification, especially electrodes on the frontal (Af3-Af4), occipital
(O1-O2), and temporal (T7-T8) areas. We observe that patterns may be eventually
found in any frequency band; however, the Alpha (8-13Hz), Delta (1-4Hz), and
Theta (4-8Hz) bands, in this order, are the highest correlated with emotion
classes. eGFC has shown to be effective for real-time learning of EEG data. It
reaches a 72.2% accuracy using a variable rule base, 10-second windows, and
1.8ms/sample processing time in a highly-stochastic time-varying 4-class
classification problem.
- Abstract(参考訳): 人間の感情認識は、よりリアルでインタラクティブなマシンとコンピュータシステムの必要性となっています。
最大の課題は、生理学的データストリームの個々の差異や非定常を効果的に管理する高性能アルゴリズム、すなわち、被験者固有のキャリブレーションデータなしでユーザに自己カスタマイズするアルゴリズムが利用可能であることだ。
本稿では,脳波データストリームから感情パターンを認識するオンライン半教師付き学習アルゴリズムによって支援されたガウスファジィ分類器(eGFC)について述べる。
我々は、脳波データのフーリエスペクトルから特徴を抽出します。
データは、公開データセットである「train sim world」「unravel」「slender the arrival」「goat simulator」をプレイする28人の個人によって提供される。
異なる感情は、すなわち、退屈、落ち着き、恐怖と喜びが優勢です。
ユーザ非依存eGFCの精度に及ぼす各電極,時間窓長さ,周波数帯域の影響を解析した。
両脳半球は、特に前頭葉(Af3-Af4)、後頭葉(O1-O2)、側頭葉(T7-T8)の電極の分類を補助する可能性がある。
いずれの周波数帯でもパターンが見つかる可能性があるが、Alpha (8-13Hz)、Delta (1-4Hz)、Theta (4-8Hz)は感情のクラスと最も相関している。
eGFCは脳波データのリアルタイム学習に有効であることが示されている。
可変ルールベース、10秒ウィンドウ、1.8ms/sample処理時間を用いて、高度に確率的な4クラス分類問題において72.2%の精度に達する。
関連論文リスト
- EGNN-C+: Interpretable Evolving Granular Neural Network and Application
in Classification of Weakly-Supervised EEG Data Streams [0.0]
グラニュラーニューラルネットワーク(eGNN-C+)の進化のための改良型インクリメンタル学習アルゴリズムを提案する。
脳波(EEG)信号における感情関連パターンの分類に着目する。
論文 参考訳(メタデータ) (2024-02-26T15:11:41Z) - Unveiling Emotions from EEG: A GRU-Based Approach [2.580765958706854]
ゲーテッド・リカレント・ユニット(GRU)アルゴリズムは、感情状態を予測するために脳波信号が使えるかどうかをテストする。
我々の公開データセットは、幸せ、中立、ネガティブな感情を呼び起こす刺激にさらされた人々の脳波記録と同様に、中立なデータを休ませることから成り立っている。
論文 参考訳(メタデータ) (2023-07-20T11:04:46Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - Facial Emotion Characterization and Detection using Fourier Transform
and Machine Learning [0.0]
本稿では、顔の感情を特徴付け、検出するFourierベースの機械学習技術を提案する。
ランダムフォレスト(RF)と人工ニューラルネットワーク(ANN)の性能スコアを用いて仮説を検証した。
提案手法によって発見された計算的感情周波数は有意な感情的特徴を与える。
論文 参考訳(メタデータ) (2021-12-06T01:41:15Z) - Deep Neural Networks on EEG Signals to Predict Auditory Attention Score
Using Gramian Angular Difference Field [1.9899603776429056]
ある意味では、個人の聴覚的注意スコアは、聴覚的タスクにおいて、その人が持つことができる焦点を示す。
深層学習の最近の進歩と、神経活動を記録する非侵襲的技術は、脳波(EEG)などの技術とともに、個人の聴覚的注意スコアを予測することができるのか?
本稿では,14チャンネルの脳波信号を用いて脳の電気的活動に基づいて聴覚的注意度を推定する問題に焦点をあてる。
論文 参考訳(メタデータ) (2021-10-24T17:58:14Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - TSception: A Deep Learning Framework for Emotion Detection Using EEG [11.444502210936776]
脳波(EEG)からの感情検出のための深層学習フレームワークTSceptionを提案する。
TSceptionは時間と空間の畳み込み層で構成され、時間とチャネル領域における識別的表現を同時に学習する。
TSceptionは86.03%の高い分類精度を達成し、従来の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-04-02T02:10:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。