論文の概要: Emo-CNN for Perceiving Stress from Audio Signals: A Brain Chemistry
Approach
- arxiv url: http://arxiv.org/abs/2001.02329v1
- Date: Wed, 8 Jan 2020 01:01:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 12:57:19.268953
- Title: Emo-CNN for Perceiving Stress from Audio Signals: A Brain Chemistry
Approach
- Title(参考訳): 音声信号からのストレス知覚のためのEmo-CNN:脳化学のアプローチ
- Authors: Anup Anand Deshmukh, Catherine Soladie, Renaud Seguier
- Abstract要約: 音声信号から人間のストレスをモデル化する手法を提案する。
Emo-CNNは、人気の高い既存のメソッドよりも一貫して、大幅に優れています。
ロブハイムの立方体は、これらの神経伝達物質と3次元空間における感情の位置との関係を説明することを目的としている。
- 参考スコア(独自算出の注目度): 2.4087148947930634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion plays a key role in many applications like healthcare, to gather
patients emotional behavior. There are certain emotions which are given more
importance due to their effectiveness in understanding human feelings. In this
paper, we propose an approach that models human stress from audio signals. The
research challenge in speech emotion detection is defining the very meaning of
stress and being able to categorize it in a precise manner. Supervised Machine
Learning models, including state of the art Deep Learning classification
methods, rely on the availability of clean and labelled data. One of the
problems in affective computation and emotion detection is the limited amount
of annotated data of stress. The existing labelled stress emotion datasets are
highly subjective to the perception of the annotator.
We address the first issue of feature selection by exploiting the use of
traditional MFCC features in Convolutional Neural Network. Our experiments show
that Emo-CNN consistently and significantly outperforms the popular existing
methods over multiple datasets. It achieves 90.2% categorical accuracy on the
Emo-DB dataset. To tackle the second and the more significant problem of
subjectivity in stress labels, we use Lovheim's cube, which is a 3-dimensional
projection of emotions. The cube aims at explaining the relationship between
these neurotransmitters and the positions of emotions in 3D space. The learnt
emotion representations from the Emo-CNN are mapped to the cube using three
component PCA (Principal Component Analysis) which is then used to model human
stress. This proposed approach not only circumvents the need for labelled
stress data but also complies with the psychological theory of emotions given
by Lovheim's cube. We believe that this work is the first step towards creating
a connection between Artificial Intelligence and the chemistry of human
emotions.
- Abstract(参考訳): 感情は、患者の感情的な行動を集めるために、医療などの多くのアプリケーションにおいて重要な役割を果たす。
人間の感情を理解する上で、その効果により、より重要視される感情がある。
本稿では,音声信号から人間のストレスをモデル化する手法を提案する。
音声感情検出における研究課題は、ストレスの意味を正確に定義し、正確な方法で分類できることである。
最先端のディープラーニング分類手法を含む教師付き機械学習モデルは、クリーンでラベル付きデータの可用性に依存している。
感情計算と感情検出における問題の1つは、応力の注釈付きデータの限られた量である。
既存のラベル付きストレス感情データセットは、アノテーションの知覚に非常に主観的です。
本稿では、畳み込みニューラルネットワークにおける従来のMFCC機能の利用を利用して、特徴選択の最初の問題に対処する。
実験の結果,Emo-CNNは複数のデータセットにまたがる既存の手法よりも一貫して,はるかに優れていることがわかった。
Emo-DBデータセットの分類精度は90.2%に達する。
ストレスラベルにおける主観性の第二およびより重要な問題に取り組むために、我々は感情の3次元射影であるロヴハイムの立方体を用いる。
立方体は、これらの神経伝達物質と3次元空間における感情の位置との関係を説明することを目的としている。
Emo-CNNから学習した感情表現を3つのPCA(主成分分析)を用いて立方体にマッピングし、人間のストレスをモデル化する。
このアプローチは、ラベル付きストレスデータの必要性を回避するだけでなく、ロヴハイムの立方体から与えられる感情の心理学的理論にも適合する。
この研究は、人工知能と人間の感情の化学とを結びつけるための第一歩だと考えています。
関連論文リスト
- UniEmoX: Cross-modal Semantic-Guided Large-Scale Pretraining for Universal Scene Emotion Perception [8.54013419046987]
視覚的感情分析のためのクロスモーダルな意味誘導型大規模事前学習フレームワークUniEmoXを紹介する。
UniEmoXは、ペア画像と未ペア画像テキストの類似性を利用して、CLIPモデルから豊富な意味知識を抽出し、感情的な埋め込み表現を強化する。
Emo8というタイトルの視覚的感情的データセットを開発し、ほとんどすべての感情的シーンをカバーしています。
論文 参考訳(メタデータ) (2024-09-27T16:12:51Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - HICEM: A High-Coverage Emotion Model for Artificial Emotional
Intelligence [9.153146173929935]
次世代の人工知能(AEI)は、より深く、より有意義な人間と機械の相互作用に対するユーザの欲求に対処するために、中心的な段階を採っている。
心理学における歴史的焦点である感情の理論とは異なり、感情モデルは記述的な道具である。
この研究は、社会ロボティクス、人間と機械の相互作用、メンタルヘルスケア、計算心理学に幅広い影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-15T15:21:30Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - DASentimental: Detecting depression, anxiety and stress in texts via
emotional recall, cognitive networks and machine learning [0.0]
本研究は,文章から抑うつ,不安,ストレスを抽出する半教師付き機械学習モデル(DASentimental)を提案する。
我々は、抑うつ不安ストレス尺度(DASS-21)に対する反応とN=200$の個人によるリコール感情単語のシーケンスがどのように相関しているかをモデルに訓練する。
想起された感情と「サド・ハッピー」のセマンティックな距離は、うつ病レベルを推定する上で重要な特徴であるが、不安やストレスには重要でない。
論文 参考訳(メタデータ) (2021-10-26T13:58:46Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Basic and Depression Specific Emotion Identification in Tweets:
Multi-label Classification Experiments [1.7699344561127386]
ツイートにおける基本的・抑うつ的マルチ感情マイニングに関する実証分析を行った。
我々は、感情の4つの高度に評価された心理モデルから、共通の感情からなるハイブリッド感情モデルから、基本的な感情を選択する。
我々は、うつ病の分析においてその重要性から、新たな感情カテゴリーによる感情モデルを強化した。
論文 参考訳(メタデータ) (2021-05-26T07:13:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。