論文の概要: K-EmoCon, a multimodal sensor dataset for continuous emotion recognition
in naturalistic conversations
- arxiv url: http://arxiv.org/abs/2005.04120v2
- Date: Tue, 19 May 2020 08:25:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 13:02:13.728995
- Title: K-EmoCon, a multimodal sensor dataset for continuous emotion recognition
in naturalistic conversations
- Title(参考訳): 自然な会話における連続感情認識のためのマルチモーダルセンサデータセットK-EmoCon
- Authors: Cheul Young Park, Narae Cha, Soowon Kang, Auk Kim, Ahsan Habib
Khandoker, Leontios Hadjileontiadis, Alice Oh, Yong Jeong, Uichin Lee
- Abstract要約: K-EmoConは、自然主義的会話における継続的な感情の包括的なアノテーションを備えた、新しいデータセットである。
データセットには、オーディオ視覚記録、脳波、周辺生理信号を含むマルチモーダル計測が含まれている。
これには、自己、議論パートナー、外部オブザーバーという3つの利用可能な視点からの感情アノテーションが含まれている。
- 参考スコア(独自算出の注目度): 19.350031493515562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing emotions during social interactions has many potential
applications with the popularization of low-cost mobile sensors, but a
challenge remains with the lack of naturalistic affective interaction data.
Most existing emotion datasets do not support studying idiosyncratic emotions
arising in the wild as they were collected in constrained environments.
Therefore, studying emotions in the context of social interactions requires a
novel dataset, and K-EmoCon is such a multimodal dataset with comprehensive
annotations of continuous emotions during naturalistic conversations. The
dataset contains multimodal measurements, including audiovisual recordings,
EEG, and peripheral physiological signals, acquired with off-the-shelf devices
from 16 sessions of approximately 10-minute long paired debates on a social
issue. Distinct from previous datasets, it includes emotion annotations from
all three available perspectives: self, debate partner, and external observers.
Raters annotated emotional displays at intervals of every 5 seconds while
viewing the debate footage, in terms of arousal-valence and 18 additional
categorical emotions. The resulting K-EmoCon is the first publicly available
emotion dataset accommodating the multiperspective assessment of emotions
during social interactions.
- Abstract(参考訳): 社会的相互作用における感情の認識は、低コストな移動センサの普及に多くの潜在的応用があるが、自然主義的な感情的相互作用データが欠如していることが課題である。
既存の感情データセットのほとんどは、制約された環境で収集された野生で発生する慣用的な感情の研究をサポートしない。
したがって、社会的相互作用の文脈で感情を研究するには、新しいデータセットが必要であり、K-EmoConは自然主義的会話における継続的な感情の包括的なアノテーションを備えたマルチモーダルデータセットである。
このデータセットには、オーディオヴィジュアル記録、脳波、周辺生理学的信号を含むマルチモーダルな測定が含まれており、約10分間の長い議論の16セッションから、市販のデバイスで取得された。
これまでのデータセットとは違って、セルフ、ディベートパートナー、外部オブザーバーの3つの視点から感情アノテーションを含んでいる。
ラッカーは5秒ごとに感情の表示を注釈付けし、議論の映像を観ながら、覚醒的価値と18の追加のカテゴリー的感情を表現した。
結果として得られたK-EmoConは、社会的相互作用中の感情の多面的評価を調節する、初めて公開された感情データセットである。
関連論文リスト
- CG-MER: A Card Game-based Multimodal dataset for Emotion Recognition [0.0]
本稿では,感情認識に特化して設計された,包括的なフランス語マルチモーダルデータセットを提案する。
データセットには、表情、スピーチ、ジェスチャーの3つの主要なモダリティが含まれており、感情の全体像を提供する。
このデータセットには、自然言語処理(NLP)のような追加のモダリティが組み込まれ、感情認識研究の範囲を広げる可能性がある。
論文 参考訳(メタデータ) (2025-01-14T15:08:56Z) - MoEE: Mixture of Emotion Experts for Audio-Driven Portrait Animation [39.30784838378127]
音声アバターの生成は、正確な音声同期において大きな進歩を遂げた。
現在の手法は、単一の基本的な感情表現をモデル化するフレームワークの欠如など、基本的な課題に直面している。
本研究では,6つの基本的な感情を分離し,特異な感情状態と複合的な感情状態の両方を正確に合成する混合感情エキスパートモデルを提案する。
DH-FaceEmoVid-150データセットと組み合わせて、複雑な感情表現とニュアンスのある顔の詳細を生成するのにMoEEフレームワークが優れていることを示す。
論文 参考訳(メタデータ) (2025-01-03T13:43:21Z) - SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - The MuSe 2022 Multimodal Sentiment Analysis Challenge: Humor, Emotional
Reactions, and Stress [71.06453250061489]
マルチモーダル・センチメント・アナリティクス・チャレンジ(MuSe 2022)は、マルチモーダル・センチメントと感情認識に重点を置いている。
今年の課題では、(i)ドイツサッカーコーチの音声-視覚的記録を含むPassau Spontaneous Football Coach Humorデータセット、(ii)ドイツサッカーコーチのユーモアの存在をラベル付けしたHum-Reactionデータセット、(ii)感情的表情強度に対して個人の反応が注釈付けされたHum-Reactionデータセット、(iii)ストレス的態度における人々の継続的な感情的価値観をラベル付けした音声-視覚的データからなるUlm-Trier Social Stress Testデータセットの3つのデータセットを特徴としている。
論文 参考訳(メタデータ) (2022-06-23T13:34:33Z) - EmoInHindi: A Multi-label Emotion and Intensity Annotated Dataset in
Hindi for Emotion Recognition in Dialogues [44.79509115642278]
我々はHindiにEmoInHindiという大きな会話データセットを作成し、会話におけるマルチラベルの感情と強度の認識を可能にした。
我々は、精神保健と犯罪被害者の法的カウンセリングのために、ウィザード・オブ・オズの方法でデータセットを作成します。
論文 参考訳(メタデータ) (2022-05-27T11:23:50Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z) - Context Based Emotion Recognition using EMOTIC Dataset [22.631542327834595]
EMOTIC(エモティック)は, 感情に注意を喚起された人々のイメージのデータセットである。
EMOTICデータセットを使用して、感情認識のためのさまざまなCNNモデルをトレーニングする。
その結果,情緒状態を自動的に認識するためにシーンコンテキストが重要な情報を提供することを示す。
論文 参考訳(メタデータ) (2020-03-30T12:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。