論文の概要: Challenges in Emotion Style Transfer: An Exploration with a Lexical
Substitution Pipeline
- arxiv url: http://arxiv.org/abs/2005.07617v1
- Date: Fri, 15 May 2020 16:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:10:06.397439
- Title: Challenges in Emotion Style Transfer: An Exploration with a Lexical
Substitution Pipeline
- Title(参考訳): 感情のスタイル移行における課題:語彙置換パイプラインによる探索
- Authors: David Helbig and Enrica Troiano and Roman Klinger
- Abstract要約: 3つのステップに基づいて,透過的な感情伝達パイプラインを設計する。
我々は、語彙置換がテキストの感情的負荷をどう変えるかを探る。
実際、コンテンツと感情の同時調整は、目的と矛盾している。
- 参考スコア(独自算出の注目度): 16.3589458084367
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose the task of emotion style transfer, which is particularly
challenging, as emotions (here: anger, disgust, fear, joy, sadness, surprise)
are on the fence between content and style. To understand the particular
difficulties of this task, we design a transparent emotion style transfer
pipeline based on three steps: (1) select the words that are promising to be
substituted to change the emotion (with a brute-force approach and selection
based on the attention mechanism of an emotion classifier), (2) find sets of
words as candidates for substituting the words (based on lexical and
distributional semantics), and (3) select the most promising combination of
substitutions with an objective function which consists of components for
content (based on BERT sentence embeddings), emotion (based on an emotion
classifier), and fluency (based on a neural language model). This comparably
straight-forward setup enables us to explore the task and understand in what
cases lexical substitution can vary the emotional load of texts, how changes in
content and style interact and if they are at odds. We further evaluate our
pipeline quantitatively in an automated and an annotation study based on Tweets
and find, indeed, that simultaneous adjustments of content and emotion are
conflicting objectives: as we show in a qualitative analysis motivated by
Scherer's emotion component model, this is particularly the case for implicit
emotion expressions based on cognitive appraisal or descriptions of bodily
reactions.
- Abstract(参考訳): 感情(怒り、嫌悪感、恐怖、喜び、悲しみ、驚き)は、コンテンツとスタイルの間のフェンス上にあるため、特に難しい感情のスタイル移行のタスクを提案する。
To understand the particular difficulties of this task, we design a transparent emotion style transfer pipeline based on three steps: (1) select the words that are promising to be substituted to change the emotion (with a brute-force approach and selection based on the attention mechanism of an emotion classifier), (2) find sets of words as candidates for substituting the words (based on lexical and distributional semantics), and (3) select the most promising combination of substitutions with an objective function which consists of components for content (based on BERT sentence embeddings), emotion (based on an emotion classifier), and fluency (based on a neural language model).
このコンパチブル・ストレート・フォワード・セットアップにより、テキストの感情的負荷の変化、コンテンツやスタイルの変化の相互作用、不規則な場合などについて、タスクを探索し理解することができる。
我々は、ツイートに基づく自動的および注釈研究において、パイプラインを定量的に評価し、実際に、内容と感情の同時調整が目的と矛盾していることを見出した: シェラーの感情成分モデルによって動機付けられた質的分析で示されているように、これは特に認知的評価や身体反応の記述に基づく暗黙的な感情表現のケースである。
関連論文リスト
- Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - AffectEcho: Speaker Independent and Language-Agnostic Emotion and Affect
Transfer for Speech Synthesis [13.918119853846838]
Affectは、原子価、覚醒、強さを含む感情的特徴であり、真正な会話を可能にする重要な属性である。
本稿では,Vector Quantized Codebookを用いた感情翻訳モデルAffectEchoを提案する。
それぞれの話者に特有のアイデンティティ、スタイル、感情のリズムを保ちながら、生成した音声の感情を制御する方法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-16T06:28:29Z) - Emotion and Sentiment Guided Paraphrasing [3.5027291542274366]
感情の勾配に沿ってきめ細かな感情的言い回しを新たに導入する。
入力テキストとターゲットテキストを微粒な感情ラベルで拡張することにより、広く使われているパラフレーズデータセットを再構築する。
本研究では,条件付きテキスト生成のための事前学習言語モデルを活用することで,感情と感情を導出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T20:59:40Z) - Fine-Grained Emotional Paraphrasing along Emotion Gradients [0.0]
感情の勾配に沿ってきめ細かな感情的言い回しを新たに導入する。
マルチタスク・トレーニングによるテキスト・トゥ・テキスト・トランスフォーマーの微調整により,この問題に対処するフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-30T05:38:22Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Multi-Task Learning and Adapted Knowledge Models for Emotion-Cause
Extraction [18.68808042388714]
感情認識と感情原因検出の両方に共同で取り組むソリューションを提案する。
暗黙的に表現された感情を理解する上で,常識的知識が重要な役割を担っていることを考慮し,新しい手法を提案する。
共通センス推論とマルチタスクフレームワークを含む場合,両タスクのパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-06-17T20:11:04Z) - EmoDNN: Understanding emotions from short texts through a deep neural
network ensemble [2.459874436804819]
本稿では,短い内容から潜伏した個々の側面を推定する枠組みを提案する。
また,テキストコンテキストから感情を抽出する動的ドロップアウト共振器を備えた新しいアンサンブル分類器を提案する。
提案モデルでは,ノイズのある内容から感情を認識する上で,高い性能を実現することができる。
論文 参考訳(メタデータ) (2021-06-03T09:17:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。