論文の概要: Towards a Unified Framework for Emotion Analysis
- arxiv url: http://arxiv.org/abs/2012.00190v1
- Date: Tue, 1 Dec 2020 00:54:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 20:13:29.647604
- Title: Towards a Unified Framework for Emotion Analysis
- Title(参考訳): 感情分析のための統一フレームワークを目指して
- Authors: Sven Buechel, Luise Modersohn, and Udo Hahn
- Abstract要約: EmoCoderはモジュール式エンコーダ・デコーダアーキテクチャで、様々なタスクに対する感情分析を一般化する。
EmoCoderは、言語に依存しない感情の表現を学ぶ。
- 参考スコア(独自算出の注目度): 12.369106010767283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present EmoCoder, a modular encoder-decoder architecture that generalizes
emotion analysis over different tasks (sentence-level, word-level,
label-to-label mapping), domains (natural languages and their registers), and
label formats (e.g., polarity classes, basic emotions, and affective
dimensions). Experiments on 14 datasets indicate that EmoCoder learns an
interpretable language-independent representation of emotions, allows seamless
absorption of state-of-the-art models, and maintains strong prediction quality,
even when tested on unseen combinations of domains and label formats.
- Abstract(参考訳): 我々は,異なるタスク(意味レベル,単語レベル,ラベル間マッピング),ドメイン(自然言語とそのレジスタ),ラベル形式(例えば,極性クラス,基本的な感情,感情的次元)に対する感情分析を一般化した,モジュール化されたエンコーダ・デコーダアーキテクチャであるemocoderを提案する。
14のデータセットに関する実験は、エモコーダが感情の解釈可能な言語に依存しない表現を学習し、最先端のモデルのシームレスな吸収を可能にし、ドメインとラベルフォーマットの見当たらない組み合わせでテストしても強力な予測品質を維持することを示している。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Expansion Quantization Network: An Efficient Micro-emotion Annotation and Detection Framework [2.0209172586699173]
本稿では,ラベル値をエネルギー強度レベルにマッピングする全ラベルおよびトレーニングセットラベル回帰法を提案する。
これにより、マイクロ感情検出とアノテーションのための感情量子化ネットワーク(EQN)フレームワークが確立された。
EQNフレームワークは、エネルギーレベルスコアで自動マイクロ感情アノテーションを実現する最初のフレームワークである。
論文 参考訳(メタデータ) (2024-11-09T12:09:26Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Emotion Embeddings $\unicode{x2014}$ Learning Stable and Homogeneous
Abstractions from Heterogeneous Affective Datasets [4.720033725720261]
感情の共有潜在表現を学習する訓練手順を提案する。
幅広い異種感情データセットの実験は、このアプローチが望ましい相互運用性をもたらすことを示している。
論文 参考訳(メタデータ) (2023-08-15T16:39:10Z) - Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion [0.0]
マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-28T02:27:18Z) - Chat-Capsule: A Hierarchical Capsule for Dialog-level Emotion Analysis [70.98130990040228]
本稿では,発話レベルと対話レベルの両方の感情とその相互関係をモデル化したコンテキストベースの階層的注意カプセル(Chat-Capsule)モデルを提案する。
Eコマースプラットフォームの顧客サポートから収集したダイアログデータセットでは,ユーザの満足度や感情曲線のカテゴリも予測できる。
論文 参考訳(メタデータ) (2022-03-23T08:04:30Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Emotion-Regularized Conditional Variational Autoencoder for Emotional
Response Generation [39.392929591449885]
本稿では,感情対応型条件変分オートエンコーダ(Emo-CVAE)モデルを提案する。
実験の結果,エモ-CVAEモデルは従来のCVAEモデルよりも情報的かつ構造化された潜在空間を学習できることがわかった。
論文 参考訳(メタデータ) (2021-04-18T13:53:20Z) - EmoGraph: Capturing Emotion Correlations using Graph Networks [71.53159402053392]
グラフネットワークを通じて異なる感情間の依存関係をキャプチャするEmoGraphを提案する。
EmoGraphは特にマクロF1において、強いベースラインを上回ります。
キャプチャーされた感情相関は、シングルラベルの分類作業にも有用であることを示す実験である。
論文 参考訳(メタデータ) (2020-08-21T08:59:29Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。