論文の概要: Handling Ambiguity in Emotion: From Out-of-Domain Detection to
Distribution Estimation
- arxiv url: http://arxiv.org/abs/2402.12862v1
- Date: Tue, 20 Feb 2024 09:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 15:52:46.895506
- Title: Handling Ambiguity in Emotion: From Out-of-Domain Detection to
Distribution Estimation
- Title(参考訳): 感情のあいまいさに対処する:ドメイン外検出から分布推定へ
- Authors: Wen Wu, Bo Li, Chao Zhang, Chung-Cheng Chiu, Qiujia Li, Junwen Bai,
Tara N. Sainath, Philip C. Woodland
- Abstract要約: 感情に対する主観的な認識は、人間の注釈からの矛盾したラベルにつながる。
本稿では,あいまいな感情を扱う3つの方法について検討する。
分類器にラベルを付けない発話を付加クラスとして組み込むことで、他の感情クラスの分類性能が低下することを示す。
また,明快な深層学習を用いた感情分類における不確実性を定量化することにより,不明瞭な感情を伴う発話を領域外サンプルとして検出することを提案する。
- 参考スコア(独自算出の注目度): 45.53789836426869
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The subjective perception of emotion leads to inconsistent labels from human
annotators. Typically, utterances lacking majority-agreed labels are excluded
when training an emotion classifier, which cause problems when encountering
ambiguous emotional expressions during testing. This paper investigates three
methods to handle ambiguous emotion. First, we show that incorporating
utterances without majority-agreed labels as an additional class in the
classifier reduces the classification performance of the other emotion classes.
Then, we propose detecting utterances with ambiguous emotions as out-of-domain
samples by quantifying the uncertainty in emotion classification using
evidential deep learning. This approach retains the classification accuracy
while effectively detects ambiguous emotion expressions. Furthermore, to obtain
fine-grained distinctions among ambiguous emotions, we propose representing
emotion as a distribution instead of a single class label. The task is thus
re-framed from classification to distribution estimation where every individual
annotation is taken into account, not just the majority opinion. The evidential
uncertainty measure is extended to quantify the uncertainty in emotion
distribution estimation. Experimental results on the IEMOCAP and CREMA-D
datasets demonstrate the superior capability of the proposed method in terms of
majority class prediction, emotion distribution estimation, and uncertainty
estimation.
- Abstract(参考訳): 感情に対する主観的な認識は、人間の注釈からの矛盾したラベルにつながる。
通常は、感情分類器を訓練する際、大多数のラベルを欠いた発話は除外され、テスト中に曖昧な感情表現に遭遇する際に問題を引き起こす。
本稿では,あいまいな感情を扱う3つの方法について検討する。
まず,多数ラベルのない発話を分類器に追加クラスとして組み込むことで,他の感情クラスの分類性能が低下することを示す。
そこで我々は,明快な深層学習を用いた感情分類における不確実性を定量化することにより,不明瞭な感情をもつ発話をドメイン外サンプルとして検出する。
このアプローチは分類精度を維持しつつ、あいまいな感情表現を効果的に検出する。
さらに,曖昧な感情間の微妙な区別を得るために,感情を単一クラスラベルではなく分布として表現することを提案する。
したがって、タスクは分類から分布推定へと再フレーム化され、各アノテーションが多数意見だけでなく考慮される。
感情分布推定の不確かさを定量化するために、明確な不確実性尺度が拡張される。
IEMOCAP と CREMA-D データセットによる実験結果から,提案手法のマジョリティクラス予測,感情分布推定,不確実性推定における優位性を示す。
関連論文リスト
- The Whole Is Bigger Than the Sum of Its Parts: Modeling Individual Annotators to Capture Emotional Variability [7.1394038985662664]
感情表現と知覚はニュアンスがあり、複雑で、非常に主観的なプロセスである。
ほとんどの音声感情認識タスクは、アノテータラベルを基底真理として平均化することでこの問題に対処する。
従来の研究は感情の多様性を捉えるために分布を学習しようとしたが、これらの手法は個々のアノテータに関する情報も失っている。
本研究では,モデル学習中の感情分布の学習を可能にする連続モデル出力から分布を生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-21T19:24:06Z) - Improved Text Emotion Prediction Using Combined Valence and Arousal Ordinal Classification [37.823815777259036]
テキストから感情を分類する手法を導入し,様々な感情の相違点と相違点を認識・区別する。
提案手法は感情予測において高い精度を保ちながら,誤分類の場合の誤りの程度を著しく低減する。
論文 参考訳(メタデータ) (2024-04-02T10:06:30Z) - Estimating the Uncertainty in Emotion Attributes using Deep Evidential
Regression [17.26466867595571]
自動感情認識では、異なる人間のアノテータによって同じ発話に割り当てられたラベルはしばしば矛盾する。
本稿では,感情属性の不確かさを推定するために,ベイズ的アプローチであるDeep obviousial emotion regression (DEER)を提案する。
広く使われているMSP-PodcastとIEMOCAPデータセットの実験では、DeERが最先端の結果を生み出した。
論文 参考訳(メタデータ) (2023-06-11T20:07:29Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Estimating the Uncertainty in Emotion Class Labels with
Utterance-Specific Dirichlet Priors [24.365876333182207]
本稿では,発話ごとのディリクレの事前分布に基づく新たな訓練損失を提案する。
ラベル付けの不確かさの高い試験発話を検出することで、さらなる測定値を用いて性能を評価する。
広く使われているIEMOCAPデータセットによる実験は、2分岐構造が最先端の分類結果を達成することを示した。
論文 参考訳(メタデータ) (2022-03-08T23:30:01Z) - Label Distribution Amendment with Emotional Semantic Correlations for
Facial Expression Recognition [69.18918567657757]
意味空間における表現間の相関を利用して,各顔画像のラベル分布を補正する手法を提案する。
各画像のセマンティックグラフとタスククラス関連グラフを比較することにより、そのラベル分布の信頼性を評価する。
実験により,提案手法は最先端手法と比較した場合よりも有効であることが示された。
論文 参考訳(メタデータ) (2021-07-23T07:46:14Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - EmoGraph: Capturing Emotion Correlations using Graph Networks [71.53159402053392]
グラフネットワークを通じて異なる感情間の依存関係をキャプチャするEmoGraphを提案する。
EmoGraphは特にマクロF1において、強いベースラインを上回ります。
キャプチャーされた感情相関は、シングルラベルの分類作業にも有用であることを示す実験である。
論文 参考訳(メタデータ) (2020-08-21T08:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。