論文の概要: Understanding Emotion Valence is a Joint Deep Learning Task
- arxiv url: http://arxiv.org/abs/2305.17422v2
- Date: Tue, 31 Oct 2023 13:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 02:17:38.313257
- Title: Understanding Emotion Valence is a Joint Deep Learning Task
- Title(参考訳): 感情の妥当性を理解することは、共同学習課題である
- Authors: Gabriel Roccabruna, Seyed Mahed Mousavi, Giuseppe Riccardi
- Abstract要約: マルチタスク学習手法を用いて、価値とECの自然な相互依存性について検討する。
生成的アーキテクチャ(GPT-2)と識別的アーキテクチャ(BERT)の性能をそれぞれ比較,評価した。
その結果、両方のタスクを実行する単一のモデルが達成され、トレーニングや推論時にリソースを節約できます。
- 参考スコア(独自算出の注目度): 2.457003287112758
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The valence analysis of speakers' utterances or written posts helps to
understand the activation and variations of the emotional state throughout the
conversation. More recently, the concept of Emotion Carriers (EC) has been
introduced to explain the emotion felt by the speaker and its manifestations.
In this work, we investigate the natural inter-dependency of valence and ECs
via a multi-task learning approach. We experiment with Pre-trained Language
Models (PLM) for single-task, two-step, and joint settings for the valence and
EC prediction tasks. We compare and evaluate the performance of generative
(GPT-2) and discriminative (BERT) architectures in each setting. We observed
that providing the ground truth label of one task improves the prediction
performance of the models in the other task. We further observed that the
discriminative model achieves the best trade-off of valence and EC prediction
tasks in the joint prediction setting. As a result, we attain a single model
that performs both tasks, thus, saving computation resources at training and
inference times.
- Abstract(参考訳): 話者の発話や文章の投稿の原子価分析は、会話を通して感情状態の活性化と変動を理解するのに役立つ。
最近では、話者が感じた感情とその表現を説明するために感情キャリア(EC)の概念が導入されている。
本研究では、マルチタスク学習手法を用いて、価値とECの自然な相互依存性について検討する。
我々は、単タスク、2ステップ、およびvalenceおよびec予測タスクのジョイント設定のための事前学習された言語モデル(plm)を実験する。
生成的アーキテクチャ(GPT-2)と識別的アーキテクチャ(BERT)の性能をそれぞれ比較,評価した。
一方のタスクの真理ラベルを提供することで、他方のタスクにおけるモデルの予測性能が向上することが観察された。
さらに,識別モデルは,共同予測設定における有価値とEC予測タスクの最良のトレードオフを達成することを観察した。
その結果、両方のタスクを実行する単一のモデルが得られるため、トレーニングや推論時に計算リソースを節約できる。
関連論文リスト
- Towards More Accurate Prediction of Human Empathy and Emotion in Text and Multi-turn Conversations by Combining Advanced NLP, Transformers-based Networks, and Linguistic Methodologies [0.0]
我々はエッセイに表される共感的関心と個人的な苦悩のレベルを予測する。
WASSA 2022の共感検出と感情分類の共有タスクに基づいて、フィードフォワードニューラルネットワークを実装した。
最終段階の一部として、これらのアプローチは、インタラクションにおける共感感情とパーソナリティ検出の共有タスクに適応した。
論文 参考訳(メタデータ) (2024-07-26T04:01:27Z) - Layer-Wise Analysis of Self-Supervised Acoustic Word Embeddings: A Study
on Speech Emotion Recognition [54.952250732643115]
連続表現から派生した長さの固定長特徴である音響単語埋め込み(AWE)について検討し,その利点について検討した。
AWEは以前、音響的識別可能性の把握に有用であることを示した。
以上の結果から,AWEが伝達する音響的文脈が明らかになり,高い競争力を持つ音声認識精度が示された。
論文 参考訳(メタデータ) (2024-02-04T21:24:54Z) - A Multi-Task, Multi-Modal Approach for Predicting Categorical and
Dimensional Emotions [0.0]
分類的・次元的な感情を予測するマルチタスク・マルチモーダルシステムを提案する。
その結果,2種類の感情の相互規則化の重要性が強調された。
論文 参考訳(メタデータ) (2023-12-31T16:48:03Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Unifying the Discrete and Continuous Emotion labels for Speech Emotion
Recognition [28.881092401807894]
音声からの感情検出のためのパラ言語分析では、感情は離散的または次元的(連続的な評価)ラベルと同一視されている。
本研究では,連続的感情特性と離散的感情特性を共同で予測するモデルを提案する。
論文 参考訳(メタデータ) (2022-10-29T16:12:31Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - A computational psycholinguistic evaluation of the syntactic abilities
of Galician BERT models at the interface of dependency resolution and
training time [7.6146285961466]
我々は,ルアーとして機能するアトラクタ名詞の存在とともに,係り受け長を操作できる単語予測実験を行った。
ガリシア語に対する既存の単言語モデルと多言語モデルの全体的な性能を評価する。
本研究は, 契約予測タスクを用いて, 長距離依存を解決するためにトランスフォーマーモデルが必要とするトレーニングステップの数について, 興味深い知見を提供する類似研究によって, 過去の知見を裏付けるものである。
論文 参考訳(メタデータ) (2022-06-06T09:03:11Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - An Exploration of Self-Supervised Pretrained Representations for
End-to-End Speech Recognition [98.70304981174748]
本稿では,事前訓練された音声表現の一般応用,高度なエンドツーエンド自動音声認識(E2E-ASR)モデルに焦点をあてる。
いくつかの事前訓練された音声表現を選択し、E2E-ASRのための様々なオープンソースおよび公開コーパスの実験結果を示す。
論文 参考訳(メタデータ) (2021-10-09T15:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。