論文の概要: Language Models (Mostly) Do Not Consider Emotion Triggers When
Predicting Emotion
- arxiv url: http://arxiv.org/abs/2311.09602v1
- Date: Thu, 16 Nov 2023 06:20:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 16:11:40.977196
- Title: Language Models (Mostly) Do Not Consider Emotion Triggers When
Predicting Emotion
- Title(参考訳): 言語モデルは感情を予測するときに感情トリガーを考慮しない
- Authors: Smriti Singh, Cornelia Caragea, Junyi Jessy Li
- Abstract要約: 本研究では,人間の感情が感情の予測において,モデルが有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを使って、感情のトリガーを識別する大きな言語モデルの評価を行う。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
- 参考スコア(独自算出の注目度): 97.98240591442922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Situations and events evoke emotions in humans, but to what extent do they
inform the prediction of emotion detection models? Prior work in emotion
trigger or cause identification focused on training models to recognize events
that trigger an emotion. Instead, this work investigates how well
human-annotated emotion triggers correlate with features that models deemed
salient in their prediction of emotions. First, we introduce a novel dataset
EmoTrigger, consisting of 900 social media posts sourced from three different
datasets; these were annotated by experts for emotion triggers with high
agreement. Using EmoTrigger, we evaluate the ability of large language models
(LLMs) to identify emotion triggers, and conduct a comparative analysis of the
features considered important for these tasks between LLMs and fine-tuned
models. Our analysis reveals that emotion triggers are largely not considered
salient features for emotion prediction models, instead there is intricate
interplay between various features and the task of emotion detection.
- Abstract(参考訳): 状況と出来事は人間の感情を喚起するが、感情検出モデルの予測をどの程度知らせるのか?
感情をトリガーするイベントを認識するトレーニングモデルに焦点を当てた、感情のトリガーや原因の識別を行う以前の作業。
この研究は、人間に注釈付けされた感情が、モデルが感情の予測に適していると見なされる特徴とどのように相関するかを調査する。
まず,3つの異なるデータセットから得られた900のソーシャルメディア投稿からなる,新しいデータセットEmoTriggerを紹介した。
emotriggerを用いて,感情トリガを識別する大規模言語モデル(llm)の能力を評価し,llmと微調整モデルの間で重要と考えられる特徴の比較分析を行う。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
関連論文リスト
- Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - EmoCaps: Emotion Capsule based Model for Conversational Emotion
Recognition [2.359022633145476]
会話中の感情認識(ERC)は、話者の状態を分析し、会話中の感情を識別することを目的としている。
ERCにおける最近の研究は文脈モデリングに焦点を当てているが、文脈的感情傾向の表現は無視されている。
Emoformerと呼ばれる新しい構造は、異なるモーダルから複数のモーダル感情ベクトルを抽出し、それらを文ベクトルで融合して感情カプセルにする。
論文 参考訳(メタデータ) (2022-03-25T08:42:57Z) - Emotion Recognition under Consideration of the Emotion Component Process
Model [9.595357496779394]
我々はScherer (2005) による感情成分プロセスモデル (CPM) を用いて感情コミュニケーションを説明する。
CPMは、感情は、出来事、すなわち主観的感情、認知的評価、表現、生理的身体反応、動機的行動傾向に対する様々なサブコンポーネントの協調過程であると述べている。
Twitter上での感情は、主に出来事の説明や主観的な感情の報告によって表現されているのに対し、文献では、著者はキャラクターが何をしているかを記述し、解釈を読者に任せることを好む。
論文 参考訳(メタデータ) (2021-07-27T15:53:25Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。