論文の概要: LDEB -- Label Digitization with Emotion Binarization and Machine
Learning for Emotion Recognition in Conversational Dialogues
- arxiv url: http://arxiv.org/abs/2306.02193v1
- Date: Sat, 3 Jun 2023 20:37:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 19:35:32.242335
- Title: LDEB -- Label Digitization with Emotion Binarization and Machine
Learning for Emotion Recognition in Conversational Dialogues
- Title(参考訳): LDEB -- 会話中の感情認識のための感情二元化と機械学習によるラベルのデジタル化
- Authors: Amitabha Dey, Shan Suthaharan
- Abstract要約: 会話における感情認識(ERC)は、会話AIとその応用の発展に不可欠である。
会話の対話は、各対話が感情の特徴記述子と感情タイプ(またはラベル)の関連を絡めるネストされた感情を描写するユニークな問題を示す。
テキスト正規化と7ビットディジタル符号化技術を用いて、ツイストをアンタングル化するLDEB(Label Digitization with Emotion Binarization)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition in conversations (ERC) is vital to the advancements of
conversational AI and its applications. Therefore, the development of an
automated ERC model using the concepts of machine learning (ML) would be
beneficial. However, the conversational dialogues present a unique problem
where each dialogue depicts nested emotions that entangle the association
between the emotional feature descriptors and emotion type (or label). This
entanglement that can be multiplied with the presence of data paucity is an
obstacle for a ML model. To overcome this problem, we proposed a novel approach
called Label Digitization with Emotion Binarization (LDEB) that disentangles
the twists by utilizing the text normalization and 7-bit digital encoding
techniques and constructs a meaningful feature space for a ML model to be
trained. We also utilized the publicly available dataset called the
FETA-DailyDialog dataset for feature learning and developed a hierarchical ERC
model using random forest (RF) and artificial neural network (ANN) classifiers.
Simulations showed that the ANN-based ERC model was able to predict emotion
with the best accuracy and precision scores of about 74% and 76%, respectively.
Simulations also showed that the ANN-model could reach a training accuracy
score of about 98% with 60 epochs. On the other hand, the RF-based ERC model
was able to predict emotions with the best accuracy and precision scores of
about 78% and 75%, respectively.
- Abstract(参考訳): 会話における感情認識(ERC)は、会話AIとその応用の発展に不可欠である。
したがって、機械学習(ML)の概念を用いた自動ERCモデルの開発は有益である。
しかし、会話の対話は、各対話が感情の特徴記述子と感情タイプ(またはラベル)の関連を絡めるネストされた感情を描写するユニークな問題を示す。
データパウシティの存在に乗じることができるこの絡み合いは、MLモデルの障害となる。
そこで本研究では,テキスト正規化と7ビットディジタル符号化技術を活用し,学習対象のMLモデルに有意義な特徴空間を構築することで,ツイストを解消する,LDEB(Label Digitization with Emotion Binarization)という手法を提案する。
また、FETA-DailyDialogデータセットと呼ばれる公開データセットを特徴学習に利用し、ランダムフォレスト(RF)と人工ニューラルネットワーク(ANN)分類器を用いた階層型ERCモデルを開発した。
シミュレーションにより、annベースのercモデルは、それぞれ74%と76%の正確さと正確さで感情を予測することができた。
シミュレーションでは、ANNモデルが60エポックで約98%の精度でトレーニングできることが示された。
一方, RFに基づくERCモデルでは, 感情を最大78%, 75%の精度で予測することができた。
関連論文リスト
- Real-time EEG-based Emotion Recognition Model using Principal Component
Analysis and Tree-based Models for Neurohumanities [0.0]
本研究は,没入空間内における文脈の学習過程における情緒的モニタリングを取り入れたソリューションを提案する。
脳波に基づくリアルタイム感情検出システムは、特定の感情を解釈し分類するために開発された。
このシステムは、感情データをインタラクティブなプラットフォームに統合し、包括的で没入的な学習環境を構築することを目的としている。
論文 参考訳(メタデータ) (2024-01-28T20:02:13Z) - EmoDiarize: Speaker Diarization and Emotion Identification from Speech
Signals using Convolutional Neural Networks [0.0]
本研究では,音声認識における深層学習技術の統合について検討する。
既存の話者ダイアリゼーションパイプラインと、畳み込みニューラルネットワーク(CNN)上に構築された感情識別モデルを組み合わせたフレームワークを導入する。
提案モデルでは,63%の非重み付き精度が得られ,音声信号中の感情状態を正確に同定する上で,顕著な効率性を示した。
論文 参考訳(メタデータ) (2023-10-19T16:02:53Z) - EmotionIC: Emotional Inertia and Contagion-Driven Dependency Modeling
for Emotion Recognition in Conversation [37.41082775317849]
情緒的慣性・伝染(Emotional Inertia and Contagion, EmotionIC)による依存モデリングの新しいアプローチを提案する。
EmotionICは3つの主要コンポーネントから構成されており、Identity Masked Multi-Head Attention (IMMHA), Dialogue-based Gated Recurrent Unit (DiaGRU), Skip-chain Random Field (SkipCRF)である。
論文 参考訳(メタデータ) (2023-03-20T13:58:35Z) - From English to More Languages: Parameter-Efficient Model Reprogramming
for Cross-Lingual Speech Recognition [50.93943755401025]
言語間音声認識のためのニューラルモデル再プログラミングに基づく新しいパラメータ効率学習フレームワークを提案する。
我々は、学習可能な事前学習機能強化に焦点を当てた、異なる補助的ニューラルネットワークアーキテクチャを設計する。
提案手法は,既存のASRチューニングアーキテクチャとその拡張性能を自己監督的損失で向上させる。
論文 参考訳(メタデータ) (2023-01-19T02:37:56Z) - Learning Speech Emotion Representations in the Quaternion Domain [16.596137913051212]
RH-emoは、実数値モノオーラルスペクトログラムから四元数埋め込みを抽出することを目的とした、新しい半教師付きアーキテクチャである。
RH-emoは、実値の感情分類器と四元値のデコーダと並行して、実値のエンコーダからなるハイブリッドリアル/四元値オートエンコーダネットワークである。
我々は、Iemocap、Ravdess、EmoDb、Tessの4つの一般的なデータセットを用いて、音声感情認識タスクに対するアプローチをテストする。
論文 参考訳(メタデータ) (2022-04-05T17:45:09Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。