論文の概要: A Genetic Feature Selection Based Two-stream Neural Network for Anger
Veracity Recognition
- arxiv url: http://arxiv.org/abs/2009.02650v3
- Date: Sat, 12 Sep 2020 03:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 08:29:52.545370
- Title: A Genetic Feature Selection Based Two-stream Neural Network for Anger
Veracity Recognition
- Title(参考訳): 怒り検出のための遺伝的特徴選択に基づく2ストリームニューラルネットワーク
- Authors: Chaoxing Huang, Xuanying Zhu, Tom Gedeon
- Abstract要約: 我々は,映像刺激の行動と真の怒りを観察する観察者の時系列瞳孔特徴を選択するために,遺伝子に基づく特徴選択法(GFS)を用いた。
次に、選択した機能を使って、単純な完全に接続されたニューラルネットワークと2ストリームのニューラルネットワークをトレーニングします。
その結果,両眼の瞳孔反応の精度は93.58%であった。
- 参考スコア(独自算出の注目度): 3.885779089924737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: People can manipulate emotion expressions when interacting with others. For
example, acted anger can be expressed when stimuli is not genuinely angry with
an aim to manipulate the observer. In this paper, we aim to examine if the
veracity of anger can be recognized with observers' pupillary data with
computational approaches. We use Genetic-based Feature Selection (GFS) methods
to select time-series pupillary features of of observers who observe acted and
genuine anger of the video stimuli. We then use the selected features to train
a simple fully connected neural work and a two-stream neural network. Our
results show that the two-stream architecture is able to achieve a promising
recognition result with an accuracy of 93.58% when the pupillary responses from
both eyes are available. It also shows that genetic algorithm based feature
selection method can effectively improve the classification accuracy by 3.07%.
We hope our work could help daily research such as human machine interaction
and psychology studies that require emotion recognition .
- Abstract(参考訳): 人は他人と対話するときに感情表現を操ることができる。
例えば、刺激が真に怒らない場合には、観察者を操作する目的で行動的怒りを表現できる。
本稿では,観察者の瞳孔データを用いて,怒りの真性が認識できるかどうかを計算的手法で検証する。
我々は,映像刺激の行動と真の怒りを観察する観察者の時系列瞳孔の特徴を選択するために,GFS法を用いている。
次に、選択した機能を使用して、完全接続されたニューラルネットワークと2ストリームニューラルネットワークをトレーニングします。
その結果,両眼からの瞳孔反応が得られれば,93.58%の精度で有望な認識結果が得られることがわかった。
また,遺伝的アルゴリズムを用いた特徴選択手法により,分類精度を3.07%向上できることを示した。
私たちは、人間のマシンインタラクションや感情認識を必要とする心理学研究など、日々の研究に役立つことを願っています。
関連論文リスト
- Auto Detecting Cognitive Events Using Machine Learning on Pupillary Data [0.0]
瞳孔の大きさは認知作業負荷の貴重な指標であり、自律神経系によって支配される注意の変化と覚醒を反映している。
本研究では、機械学習を用いて個人が経験した認知イベントを自動的に検出する可能性について検討する。
論文 参考訳(メタデータ) (2024-10-18T04:54:46Z) - BRACTIVE: A Brain Activation Approach to Human Visual Brain Learning [11.517021103782229]
本稿では,脳活動ネットワーク(BRACTIVE)について紹介する。
BRACTIVEの主な目的は、被験者の視覚的特徴をfMRI信号を介して対応する脳表現と整合させることである。
実験の結果, BRACTIVEは顔や身体選択領域など, 個人特有の関心領域を効果的に識別できることがわかった。
論文 参考訳(メタデータ) (2024-05-29T06:50:13Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Investigating Emotion-Color Association in Deep Neural Networks [6.85316573653194]
ディープニューラルネットワークによって学習された表現は、実際に感情と色彩の関連を示すことができる。
また,本手法は感情分類タスク,特にモデルをトレーニングする例が少ない場合にも有効であることを示す。
論文 参考訳(メタデータ) (2020-11-22T16:48:02Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。