論文の概要: Temporal Label Hierachical Network for Compound Emotion Recognition
- arxiv url: http://arxiv.org/abs/2407.12973v1
- Date: Wed, 17 Jul 2024 19:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 19:33:23.297377
- Title: Temporal Label Hierachical Network for Compound Emotion Recognition
- Title(参考訳): 複合感情認識のための時間ラベル階層ネットワーク
- Authors: Sunan Li, Hailun Lian, Cheng Lu, Yan Zhao, Tianhua Qi, Hao Yang, Yuan Zong, Wenming Zheng,
- Abstract要約: 本稿では,第7回フィールド感情行動分析(ABAW)コンペの成果を紹介する。
時間経過に伴う感情の連続性を考慮して,フレームレベルの感情予測のための時間ピラミッド構造ネットワークを提案する。
同時に、複合感情認識におけるデータの欠如に対処するために、DFEWデータベースからのきめ細かいラベルを利用する。
- 参考スコア(独自算出の注目度): 16.258721361021443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emotion recognition has attracted more attention in recent decades. Although significant progress has been made in the recognition technology of the seven basic emotions, existing methods are still hard to tackle compound emotion recognition that occurred commonly in practical application. This article introduces our achievements in the 7th Field Emotion Behavior Analysis (ABAW) competition. In the competition, we selected pre trained ResNet18 and Transformer, which have been widely validated, as the basic network framework. Considering the continuity of emotions over time, we propose a time pyramid structure network for frame level emotion prediction. Furthermore. At the same time, in order to address the lack of data in composite emotion recognition, we utilized fine-grained labels from the DFEW database to construct training data for emotion categories in competitions. Taking into account the characteristics of valence arousal of various complex emotions, we constructed a classification framework from coarse to fine in the label space.
- Abstract(参考訳): 感情認識はここ数十年で注目されている。
7つの基本的な感情の認識技術では大きな進歩があったが、既存の手法では、一般的に応用されている複合的な感情認識に取り組むことは依然として困難である。
本稿では,第7回フィールド感情行動分析(ABAW)コンペの成果を紹介する。
コンペでは、ネットワークフレームワークとして広く検証されている事前訓練されたResNet18とTransformerを選択した。
時間経過に伴う感情の連続性を考慮して,フレームレベルの感情予測のための時間ピラミッド構造ネットワークを提案する。
さらに。
同時に、複合感情認識におけるデータの欠如に対処するため、DFEWデータベースからのきめ細かいラベルを用いて、コンペティションにおける感情カテゴリーのトレーニングデータを構築した。
様々な複雑な感情の原子価刺激の特性を考慮し,ラベル空間における粗さから細さへの分類の枠組みを構築した。
関連論文リスト
- Learning Emotion Representations from Verbal and Nonverbal Communication [7.747924294389427]
本稿では,言語・非言語コミュニケーションから視覚的感情表現を抽出する最初の事前学習パラダイムであるEmotionCLIPを提案する。
EmotionCLIPは、感情誘導型コントラスト学習を用いて、主観的文脈エンコーディングと言語感情キューを通じて、非言語感情キューへの参加を誘導する。
EmotionCLIPは、感情理解におけるデータ不足の一般的な問題に対処し、関連する領域の進歩を促進する。
論文 参考訳(メタデータ) (2023-05-22T21:36:55Z) - Emotion Recognition With Temporarily Localized 'Emotional Events' in
Naturalistic Context [1.7205106391379026]
我々は脳波信号を用いて、Valence(V)次元とArousal(A)次元の異なる組み合わせで感情事象を分類する。
感情に関する正確な情報を持つことで、長期の脳波信号と比較して分類精度が向上する。
論文 参考訳(メタデータ) (2022-10-25T10:01:40Z) - When Facial Expression Recognition Meets Few-Shot Learning: A Joint and
Alternate Learning Framework [60.51225419301642]
実践シナリオにおける人間の感情の多様性に対応するために,感情ガイド型類似ネットワーク(EGS-Net)を提案する。
EGS-Netは2段階の学習フレームワークに基づいた感情ブランチと類似性ブランチで構成されている。
In-the-labとin-the-wildの複合表現データセットの実験結果から,提案手法がいくつかの最先端手法に対して優れていることを示す。
論文 参考訳(メタデータ) (2022-01-18T07:24:12Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Cross Domain Emotion Recognition using Few Shot Knowledge Transfer [21.750633928464026]
ほとんどショットもゼロショットも、文書や感情ラベルを共有埋め込み空間に投影することで、目に見えない感情を一般化することができる。
本研究では,GoEmotions Reddit データセットの監視から得られた知識をSemEval ツイートコーパスに転送することで,数発の感情認識の課題を探求する。
論文 参考訳(メタデータ) (2021-10-11T06:22:18Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition [29.916609743097215]
一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
論文 参考訳(メタデータ) (2021-04-05T15:59:31Z) - COSMIC: COmmonSense knowledge for eMotion Identification in
Conversations [95.71018134363976]
我々は,心的状態,出来事,因果関係など,常識の異なる要素を取り入れた新しい枠組みであるCOSMICを提案する。
我々は,COSMICが4つのベンチマークの会話データセット上で,感情認識のための最新の結果を実現することを示す。
論文 参考訳(メタデータ) (2020-10-06T15:09:38Z) - EmoGraph: Capturing Emotion Correlations using Graph Networks [71.53159402053392]
グラフネットワークを通じて異なる感情間の依存関係をキャプチャするEmoGraphを提案する。
EmoGraphは特にマクロF1において、強いベースラインを上回ります。
キャプチャーされた感情相関は、シングルラベルの分類作業にも有用であることを示す実験である。
論文 参考訳(メタデータ) (2020-08-21T08:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。