論文の概要: Automatic Emotion Modelling in Written Stories
- arxiv url: http://arxiv.org/abs/2212.11382v1
- Date: Wed, 21 Dec 2022 21:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:27:15.278207
- Title: Automatic Emotion Modelling in Written Stories
- Title(参考訳): 小説における感情自動モデリング
- Authors: Lukas Christ, Shahin Amiriparian, Manuel Milling, Ilhan Aslan, Bj\"orn
W. Schuller
- Abstract要約: そこで本稿では,トランスフォーマーをベースとした新たな手法を提案する。
我々は,事前学習したELECTRAモデルを微調整するためのいくつかの戦略を探求し,文の文脈を考えることの利点について検討する。
私たちのコードと追加のアノテーションはhttps://github.com/lc0197/emotion_modelling_stories.orgで利用可能です。
- 参考スコア(独自算出の注目度): 4.484753247472559
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Telling stories is an integral part of human communication which can evoke
emotions and influence the affective states of the audience. Automatically
modelling emotional trajectories in stories has thus attracted considerable
scholarly interest. However, as most existing works have been limited to
unsupervised dictionary-based approaches, there is no labelled benchmark for
this task. We address this gap by introducing continuous valence and arousal
annotations for an existing dataset of children's stories annotated with
discrete emotion categories. We collect additional annotations for this data
and map the originally categorical labels to the valence and arousal space.
Leveraging recent advances in Natural Language Processing, we propose a set of
novel Transformer-based methods for predicting valence and arousal signals over
the course of written stories. We explore several strategies for fine-tuning a
pretrained ELECTRA model and study the benefits of considering a sentence's
context when inferring its emotionality. Moreover, we experiment with
additional LSTM and Transformer layers. The best configuration achieves a
Concordance Correlation Coefficient (CCC) of .7338 for valence and .6302 for
arousal on the test set, demonstrating the suitability of our proposed
approach. Our code and additional annotations are made available at
https://github.com/lc0197/emotion_modelling_stories.
- Abstract(参考訳): ストーリーを語ることは人間のコミュニケーションの不可欠な部分であり、感情を誘発し、聴衆の感情状態に影響を与える。
物語における感情的軌跡を自動的にモデル化することは、学術的な興味を惹きつけている。
しかし、既存の作業の多くは教師なし辞書ベースのアプローチに限られているため、このタスクのラベル付きベンチマークは存在しない。
我々は,子どもの物語に個別の感情カテゴリを付与した既存のデータセットに対して,連続的ヴァレンスと覚醒的アノテーションを導入することで,このギャップに対処した。
我々は、このデータに対する追加アノテーションを収集し、もともとの分類ラベルを値空間と覚醒空間にマッピングする。
本稿では,近年の自然言語処理の進歩を生かして,文章の執筆過程における有価度と覚醒信号を予測するトランスフォーマーベースの新しい手法を提案する。
我々は,事前学習したELECTRAモデルを微調整するためのいくつかの戦略を探求し,その感情を推定する際の文の文脈を考える利点について検討する。
さらに,LSTM層とTransformer層を追加して実験を行った。
最適構成は,評価値に対して .7338 ,テストセット上で .6302 の一致相関係数(CCC)を達成し,提案手法の適合性を実証する。
私たちのコードと追加のアノテーションはhttps://github.com/lc0197/emotion_modelling_storiesで利用可能です。
関連論文リスト
- Modeling Emotional Trajectories in Written Stories Utilizing Transformers and Weakly-Supervised Learning [47.02027575768659]
本研究では,個別の感情カテゴリーで注釈付けされた子どもの物語の既存のデータセットに対して,連続的原子価と覚醒ラベルを導入する。
得られた感情信号を予測するために,DeBERTaモデルを微調整し,弱教師付き学習手法を用いてベースラインを改善する。
詳細な分析では、著者、個々の物語、物語内のセクションなどの要因によって結果がどの程度異なるかが示される。
論文 参考訳(メタデータ) (2024-06-04T12:17:16Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Improved Text Emotion Prediction Using Combined Valence and Arousal Ordinal Classification [37.823815777259036]
テキストから感情を分類する手法を導入し,様々な感情の相違点と相違点を認識・区別する。
提案手法は感情予測において高い精度を保ちながら,誤分類の場合の誤りの程度を著しく低減する。
論文 参考訳(メタデータ) (2024-04-02T10:06:30Z) - Context Unlocks Emotions: Text-based Emotion Classification Dataset
Auditing with Large Language Models [23.670143829183104]
テキストデータに文脈情報がないため、テキストベースの感情分類データセットのアノテーションプロセスは困難である。
本稿では,このような文脈情報を強化するための促進戦略を動機付けるために,テキストコンテキストの形式的定義を提案する。
提案手法は, 経験的, 人的評価的両面から, 入力と人的アノテートラベルのアライメントを改善する。
論文 参考訳(メタデータ) (2023-11-06T21:34:49Z) - DeltaScore: Fine-Grained Story Evaluation with Perturbations [69.33536214124878]
DELTASCOREは,ニュアンスストーリーの側面の評価に摂動技術を用いた新しい手法である。
私たちの中心的な命題は、物語が特定の側面(例えば、流感)で興奮する程度は、特定の摂動に対するその感受性の大きさと相関している、と仮定している。
事前学習言語モデルを用いて,前摂動状態と後摂動状態の確率差を計算することにより,アスペクトの品質を測定する。
論文 参考訳(メタデータ) (2023-03-15T23:45:54Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - GoEmotions: A Dataset of Fine-Grained Emotions [16.05879383442812]
GoEmotionsは、英語で58万件のRedditコメントを手動で注釈付けした最大のデータセットで、27の感情カテゴリまたはニュートラルにラベル付けされている。
BERTベースのモデルでは、提案された分類学で平均F1スコアの.46を達成し、改善の余地を多く残している。
論文 参考訳(メタデータ) (2020-05-01T18:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。