論文の概要: CASEIN: Cascading Explicit and Implicit Control for Fine-grained Emotion
Intensity Regulation
- arxiv url: http://arxiv.org/abs/2307.00020v1
- Date: Tue, 27 Jun 2023 09:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-09 13:49:10.111545
- Title: CASEIN: Cascading Explicit and Implicit Control for Fine-grained Emotion
Intensity Regulation
- Title(参考訳): CaseIN:微細な感情の強度調節のためのカスケーディングとインシシット制御
- Authors: Yuhao Cui, Xiongwei Wang, Zhongzhou Zhao, Wei Zhou, Haiqing Chen
- Abstract要約: 既存のきめ細かい厳密な規制法は、予測された感情の確率による明示的な制御に依存している。
これらの高いレベルの意味的確率は、しばしば音素レベルで不正確で不規則であり、学習のバイアスにつながる。
CAScaded Explicit and Implicit coNtrol framework (CASEIN) を提案する。
- 参考スコア(独自算出の注目度): 15.098961691360902
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing fine-grained intensity regulation methods rely on explicit control
through predicted emotion probabilities. However, these high-level semantic
probabilities are often inaccurate and unsmooth at the phoneme level, leading
to bias in learning. Especially when we attempt to mix multiple emotion
intensities for specific phonemes, resulting in markedly reduced
controllability and naturalness of the synthesis. To address this issue, we
propose the CAScaded Explicit and Implicit coNtrol framework (CASEIN), which
leverages accurate disentanglement of emotion manifolds from the reference
speech to learn the implicit representation at a lower semantic level. This
representation bridges the semantical gap between explicit probabilities and
the synthesis model, reducing bias in learning. In experiments, our CASEIN
surpasses existing methods in both controllability and naturalness. Notably, we
are the first to achieve fine-grained control over the mixed intensity of
multiple emotions.
- Abstract(参考訳): 既存のきめ細かい強度制御手法は、予測された感情確率による明示的な制御に依存している。
しかし、これらの高いレベルの意味的確率は、しばしば音素レベルで不正確で不規則であり、学習のバイアスにつながる。
特に、特定の音素に対して複数の感情強度を混合しようとすると、その合成の制御性と自然性が著しく低下する。
この問題に対処するために、参照音声から感情多様体の正確なアンタングル化を利用して、より低い意味レベルで暗黙的な表現を学習するCAScaded Explicit and Implicit coNtrol framework (CASEIN)を提案する。
この表現は、明示的確率と合成モデルの間の意味的ギャップを橋渡しし、学習のバイアスを減らす。
実験では、カゼインは制御性と自然性の両方において既存の方法を超える。
特に、私たちは複数の感情の混合強度のきめ細かい制御を初めて行う。
関連論文リスト
- Learning Frame-Wise Emotion Intensity for Audio-Driven Talking-Head Generation [59.81482518924723]
そこで本研究では,発話頭生成のための微妙なシフトを捕捉し,生成する手法を提案する。
我々は,強度レベルを正確に制御し,様々な感情を生成できる話頭フレームワークを開発した。
提案手法の有効性を実験・解析により検証した。
論文 参考訳(メタデータ) (2024-09-29T01:02:01Z) - SoftMCL: Soft Momentum Contrastive Learning for Fine-grained Sentiment-aware Pre-training [8.148261580909425]
本研究では,微粒な感情認識事前学習のためのソフトモーメントコントラスト学習(SoftMCL)を提案する。
提案するSoftMCLは,感情情報を学習するモデルの能力を高めるために,単語レベルと文レベルの両方で実行される。
論文 参考訳(メタデータ) (2024-05-03T03:15:38Z) - Scaling Data Diversity for Fine-Tuning Language Models in Human Alignment [84.32768080422349]
人間の好みの調整は、大きな言語モデルが誤解を招くか有害なコンテンツを生成するのを防ぐ。
本研究では, 微調整後のLLMの最終性能と線形相関を示唆し, 即時多様性の新たな定式化を提案する。
論文 参考訳(メタデータ) (2024-03-17T07:08:55Z) - Handling Ambiguity in Emotion: From Out-of-Domain Detection to
Distribution Estimation [45.53789836426869]
感情に対する主観的な認識は、人間の注釈からの矛盾したラベルにつながる。
本稿では,あいまいな感情を扱う3つの方法について検討する。
分類器にラベルを付けない発話を付加クラスとして組み込むことで、他の感情クラスの分類性能が低下することを示す。
また,明快な深層学習を用いた感情分類における不確実性を定量化することにより,不明瞭な感情を伴う発話を領域外サンプルとして検出することを提案する。
論文 参考訳(メタデータ) (2024-02-20T09:53:38Z) - Unsupervised Extractive Summarization of Emotion Triggers [56.50078267340738]
我々は、感情を共同で検出し、トリガーを要約できる新しい教師なし学習モデルを開発した。
Emotion-Aware Pagerankと題された私たちのベストアプローチは、外部ソースからの感情情報と言語理解モジュールを組み合わせたものです。
論文 参考訳(メタデータ) (2023-06-02T11:07:13Z) - Fine-grained Emotional Control of Text-To-Speech: Learning To Rank
Inter- And Intra-Class Emotion Intensities [1.4986031916712106]
State-of-the-art Text-To-Speech (TTS)モデルは高品質な音声を生成することができる。
本稿では,クラス間距離とクラス内距離の両方を考慮した,きめ細かい制御可能な感情的TSを提案する。
我々の実験は、制御性、感情、自然性の2つの最先端制御可能なTSモデルを超えることを示した。
論文 参考訳(メタデータ) (2023-03-02T09:09:03Z) - Semi-supervised learning for continuous emotional intensity controllable
speech synthesis with disentangled representations [16.524515747017787]
半教師付き学習を用いて感情の連続的な強度を制御する新しい手法を提案する。
実験の結果,提案手法は制御性と自然性に優れていた。
論文 参考訳(メタデータ) (2022-11-11T12:28:07Z) - Supervised Prototypical Contrastive Learning for Emotion Recognition in
Conversation [25.108385802645163]
本稿では,感情認識タスクにおけるSPCL(Supervised Prototypeal Contrastive Learning)の損失を提案する。
授業間距離に基づく難易度測定関数を設計し、極端なサンプルの影響を軽減するためのカリキュラム学習を導入する。
3つの広く使用されているベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2022-10-17T03:08:23Z) - Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans
vs. BERT [64.40111510974957]
英語における主語数合意に意味が干渉するかどうかを検証する。
意味的によく形づくられた、意味のないアイテムを生成します。
BERTと人間はどちらも、セマンティックな操作に敏感である。
論文 参考訳(メタデータ) (2022-09-21T17:57:23Z) - On the Sentence Embeddings from Pre-trained Language Models [78.45172445684126]
本稿では,BERT埋め込みにおける意味情報が完全に活用されていないことを論じる。
BERTは常に文の非滑らかな異方性意味空間を誘導し,その意味的類似性を損なう。
本稿では,非教師対象で学習した正規化フローにより,異方性文の埋め込み分布を滑らかで等方性ガウス分布に変換することを提案する。
論文 参考訳(メタデータ) (2020-11-02T13:14:57Z) - Facial Emotion Recognition with Noisy Multi-task Annotations [88.42023952684052]
ノイズの多いマルチタスクアノテーションを用いた顔の感情認識の新しい問題を提案する。
この新たな問題に対して,共同分布マッチングの観点からの定式化を提案する。
我々は,感情予測と共同分布学習を可能にする新しい手法を利用する。
論文 参考訳(メタデータ) (2020-10-19T20:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。