論文の概要: EmoInHindi: A Multi-label Emotion and Intensity Annotated Dataset in
Hindi for Emotion Recognition in Dialogues
- arxiv url: http://arxiv.org/abs/2205.13908v1
- Date: Fri, 27 May 2022 11:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 13:59:42.167208
- Title: EmoInHindi: A Multi-label Emotion and Intensity Annotated Dataset in
Hindi for Emotion Recognition in Dialogues
- Title(参考訳): EmoInHindi: 対話における感情認識のためのマルチラベル感情・強度付加データセット
- Authors: Gopendra Vikram Singh, Priyanshu Priya, Mauajama Firdaus, Asif Ekbal,
Pushpak Bhattacharyya
- Abstract要約: 我々はHindiにEmoInHindiという大きな会話データセットを作成し、会話におけるマルチラベルの感情と強度の認識を可能にした。
我々は、精神保健と犯罪被害者の法的カウンセリングのために、ウィザード・オブ・オズの方法でデータセットを作成します。
- 参考スコア(独自算出の注目度): 44.79509115642278
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The long-standing goal of Artificial Intelligence (AI) has been to create
human-like conversational systems. Such systems should have the ability to
develop an emotional connection with the users, hence emotion recognition in
dialogues is an important task. Emotion detection in dialogues is a challenging
task because humans usually convey multiple emotions with varying degrees of
intensities in a single utterance. Moreover, emotion in an utterance of a
dialogue may be dependent on previous utterances making the task more complex.
Emotion recognition has always been in great demand. However, most of the
existing datasets for multi-label emotion and intensity detection in
conversations are in English. To this end, we create a large conversational
dataset in Hindi named EmoInHindi for multi-label emotion and intensity
recognition in conversations containing 1,814 dialogues with a total of 44,247
utterances. We prepare our dataset in a Wizard-of-Oz manner for mental health
and legal counselling of crime victims. Each utterance of the dialogue is
annotated with one or more emotion categories from the 16 emotion classes
including neutral, and their corresponding intensity values. We further propose
strong contextual baselines that can detect emotion(s) and the corresponding
intensity of an utterance given the conversational context.
- Abstract(参考訳): 人工知能(AI)の長年の目標は、人間のような会話システムを作ることだった。
このようなシステムはユーザとの感情的なつながりを発達させる能力を持つべきであり,対話における感情認識は重要な課題である。
対話における感情検出は、人間は通常、1つの発話で様々な強度の複数の感情を伝達する。
さらに、対話の発話における感情は、タスクをより複雑にする以前の発話に依存する可能性がある。
感情認識は常に大きな需要があった。
しかし、会話におけるマルチラベル感情と強度検出のための既存のデータセットのほとんどは英語である。
この目的のために,44,247発話からなる1,814対話を含む会話におけるマルチラベル感情と強度認識のために,ヒンズー語にエモインヒンディという大きな会話データセットを作成する。
我々は、精神保健と犯罪被害者の法的カウンセリングのために、ウィザード・オブ・オズの方法でデータセットを作成します。
対話の各発話は、中性を含む16の感情クラスから1つ以上の感情カテゴリと対応する強度値とで注釈付けされる。
さらに,会話的文脈を考慮した感情と対応する発話の強度を検出できる強文脈ベースラインを提案する。
関連論文リスト
- SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - M3ED: Multi-modal Multi-scene Multi-label Emotional Dialogue Database [139.08528216461502]
マルチモーダルマルチシーンマルチラベル感情対話データセットM3EDを提案する。
M3EDには56の異なるテレビシリーズの990のダイアドの感情対話があり、合計9,082回、24,449発の発声がある。
我々の知る限りでは、M3EDは中国語における最初のマルチモーダル感情対話データセットである。
論文 参考訳(メタデータ) (2022-05-09T06:52:51Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - EmoWOZ: A Large-Scale Corpus and Labelling Scheme for Emotion in
Task-Oriented Dialogue Systems [3.3010169113961325]
EmoWOZはタスク指向対話の大規模手動感情注釈コーパスである。
11K以上の対話と83K以上の感情アノテーションを含む。
本稿では,タスク指向対話に適した新しい感情ラベリング手法を提案する。
論文 参考訳(メタデータ) (2021-09-10T15:00:01Z) - Generating Empathetic Responses with a Large Scale Dialog Dataset [0.76146285961466]
既存のモデルは、応答生成を導くために事前に定義された感情情報を直接組み込むか、応答感情を決定する決定論的ルールを使用する。
6000以上の人的評価インスタンスのベースラインと比較して,マルチターン共感ダイアログモデルの構築方法を示す。
論文 参考訳(メタデータ) (2021-05-14T13:45:40Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。