論文の概要: Language Models (Mostly) Do Not Consider Emotion Triggers When
Predicting Emotion
- arxiv url: http://arxiv.org/abs/2311.09602v1
- Date: Thu, 16 Nov 2023 06:20:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 16:11:40.977196
- Title: Language Models (Mostly) Do Not Consider Emotion Triggers When
Predicting Emotion
- Title(参考訳): 言語モデルは感情を予測するときに感情トリガーを考慮しない
- Authors: Smriti Singh, Cornelia Caragea, Junyi Jessy Li
- Abstract要約: 本研究では,人間の感情が感情の予測において,モデルが有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを使って、感情のトリガーを識別する大きな言語モデルの評価を行う。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
- 参考スコア(独自算出の注目度): 97.98240591442922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Situations and events evoke emotions in humans, but to what extent do they
inform the prediction of emotion detection models? Prior work in emotion
trigger or cause identification focused on training models to recognize events
that trigger an emotion. Instead, this work investigates how well
human-annotated emotion triggers correlate with features that models deemed
salient in their prediction of emotions. First, we introduce a novel dataset
EmoTrigger, consisting of 900 social media posts sourced from three different
datasets; these were annotated by experts for emotion triggers with high
agreement. Using EmoTrigger, we evaluate the ability of large language models
(LLMs) to identify emotion triggers, and conduct a comparative analysis of the
features considered important for these tasks between LLMs and fine-tuned
models. Our analysis reveals that emotion triggers are largely not considered
salient features for emotion prediction models, instead there is intricate
interplay between various features and the task of emotion detection.
- Abstract(参考訳): 状況と出来事は人間の感情を喚起するが、感情検出モデルの予測をどの程度知らせるのか?
感情をトリガーするイベントを認識するトレーニングモデルに焦点を当てた、感情のトリガーや原因の識別を行う以前の作業。
この研究は、人間に注釈付けされた感情が、モデルが感情の予測に適していると見なされる特徴とどのように相関するかを調査する。
まず,3つの異なるデータセットから得られた900のソーシャルメディア投稿からなる,新しいデータセットEmoTriggerを紹介した。
emotriggerを用いて,感情トリガを識別する大規模言語モデル(llm)の能力を評価し,llmと微調整モデルの間で重要と考えられる特徴の比較分析を行う。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
関連論文リスト
- Emotion Detection in Reddit: Comparative Study of Machine Learning and Deep Learning Techniques [0.0]
本研究は,GoEmotionsデータセットを利用したテキストによる感情検出に焦点を当てた。
このタスクには、6つの機械学習モデル、3つのアンサンブルモデル、Long Short-Term Memory(LSTM)モデルなど、さまざまなモデルを使用しました。
結果は、Stacking分類器が他のモデルよりも精度と性能が優れていることを示している。
論文 参考訳(メタデータ) (2024-11-15T16:28:25Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - EmoCaps: Emotion Capsule based Model for Conversational Emotion
Recognition [2.359022633145476]
会話中の感情認識(ERC)は、話者の状態を分析し、会話中の感情を識別することを目的としている。
ERCにおける最近の研究は文脈モデリングに焦点を当てているが、文脈的感情傾向の表現は無視されている。
Emoformerと呼ばれる新しい構造は、異なるモーダルから複数のモーダル感情ベクトルを抽出し、それらを文ベクトルで融合して感情カプセルにする。
論文 参考訳(メタデータ) (2022-03-25T08:42:57Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。