論文の概要: Do Stochastic Parrots have Feelings Too? Improving Neural Detection of
Synthetic Text via Emotion Recognition
- arxiv url: http://arxiv.org/abs/2310.15904v1
- Date: Tue, 24 Oct 2023 15:07:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 18:21:31.747968
- Title: Do Stochastic Parrots have Feelings Too? Improving Neural Detection of
Synthetic Text via Emotion Recognition
- Title(参考訳): 確率的オウムにも感情はあるか?
感情認識による合成テキストのニューラル検出の改善
- Authors: Alan Cowap, Yvette Graham, Jennifer Foster
- Abstract要約: 生成AIは、高性能な合成テキスト生成技術に注目を集めている。
生成AIの最近の進歩は、高性能な合成テキスト生成技術に注目を向けている。
心理学的な研究からインスピレーションを得て、人々は感情によって駆動され、構成するテキストに感情をエンコードすることができることを示唆する。
- 参考スコア(独自算出の注目度): 16.31088877974614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments in generative AI have shone a spotlight on
high-performance synthetic text generation technologies. The now wide
availability and ease of use of such models highlights the urgent need to
provide equally powerful technologies capable of identifying synthetic text.
With this in mind, we draw inspiration from psychological studies which suggest
that people can be driven by emotion and encode emotion in the text they
compose. We hypothesize that pretrained language models (PLMs) have an
affective deficit because they lack such an emotional driver when generating
text and consequently may generate synthetic text which has affective
incoherence i.e. lacking the kind of emotional coherence present in
human-authored text. We subsequently develop an emotionally aware detector by
fine-tuning a PLM on emotion. Experiment results indicate that our
emotionally-aware detector achieves improvements across a range of synthetic
text generators, various sized models, datasets, and domains. Finally, we
compare our emotionally-aware synthetic text detector to ChatGPT in the task of
identification of its own output and show substantial gains, reinforcing the
potential of emotion as a signal to identify synthetic text. Code, models, and
datasets are available at https: //github.com/alanagiasi/emoPLMsynth
- Abstract(参考訳): 生成AIの最近の進歩は、高性能な合成テキスト生成技術に注目を向けている。
このようなモデルの可用性と使いやすさは、合成テキストを識別できる等しく強力な技術を提供する緊急の必要性を浮き彫りにしている。
このことを念頭に置いて、人々は感情によって駆動され、構成するテキストに感情をエンコードできるという心理学的な研究から着想を得た。
我々は、事前学習された言語モデル(plm)は、テキストを生成する際にそのような感情的ドライバが欠如し、感情的一貫性のない合成テキストを生成する可能性があるため、感情的欠陥があると仮定する。
PLMを感情に微調整することで感情を認識できる検出器を開発した。
実験結果から,感情認識型検知器は,テキスト生成装置,さまざまなサイズモデル,データセット,ドメインなど,さまざまな領域で改善されている。
最後に、感情認識型合成テキスト検出装置を、独自の出力を識別するタスクでchatgptと比較し、相当な利益を示し、感情を合成テキストを識別するための信号としての可能性を強める。
コード、モデル、データセットはhttps: //github.com/alanagiasi/emoPLMsynthで入手できる。
関連論文リスト
- EmoSphere++: Emotion-Controllable Zero-Shot Text-to-Speech via Emotion-Adaptive Spherical Vector [26.656512860918262]
EmoSphere++は感情制御可能なゼロショットTSモデルで、感情のスタイルや強度をコントロールでき、自然な人間の音声に似ています。
人間のアノテーションを使わずに感情のスタイルや強度をモデル化する,感情適応型球面ベクトルを新たに導入する。
条件付きフローマッチングに基づくデコーダを用いて,数ステップのサンプリングで高品質で表現力のある感情的TSを実現する。
論文 参考訳(メタデータ) (2024-11-04T21:33:56Z) - EmoKnob: Enhance Voice Cloning with Fine-Grained Emotion Control [7.596581158724187]
EmoKnob(エモノブ)は、任意の感情の少数の実証的なサンプルを用いて、音声合成におけるきめ細かい感情制御を可能にするフレームワークである。
我々の感情制御フレームワークは、音声に感情を効果的に埋め込んで、商用TTSサービスの感情表現性を超越していることを示す。
論文 参考訳(メタデータ) (2024-10-01T01:29:54Z) - Emotional Dimension Control in Language Model-Based Text-to-Speech: Spanning a Broad Spectrum of Human Emotions [37.075331767703986]
現在の感情的テキスト音声システムは、人間の感情の幅広い範囲を模倣する際の課題に直面している。
本稿では,喜び,覚醒,支配の制御を容易にするTTSフレームワークを提案する。
TTSトレーニング中に感情的な音声データを必要とせずに、感情的なスタイルの多様性を合成することができる。
論文 参考訳(メタデータ) (2024-09-25T07:16:16Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - High-fidelity Generalized Emotional Talking Face Generation with
Multi-modal Emotion Space Learning [43.09015109281053]
よりフレキシブルで汎用的な顔生成フレームワークを提案する。
具体的には、テキストプロンプトで感情スタイルを補完し、テキスト、画像、音声の感情のモダリティを統一された空間に埋め込むためにアラインド・マルチモーダル・感情エンコーダを使用する。
感情条件と音声シーケンスを構造表現に接続する感情認識型オーディオ-to-3DMM変換器を提案する。
論文 参考訳(メタデータ) (2023-05-04T05:59:34Z) - EMOVIE: A Mandarin Emotion Speech Dataset with a Simple Emotional
Text-to-Speech Model [56.75775793011719]
音声ファイルを含む9,724のサンプルとその感情ラベル付きアノテーションを含むマンダリン感情音声データセットを導入,公開する。
入力として追加の参照音声を必要とするこれらのモデルとは異なり、我々のモデルは入力テキストから直接感情ラベルを予測し、感情埋め込みに基づいてより表現力のある音声を生成することができる。
実験段階では、まず感情分類タスクによってデータセットの有効性を検証し、次に提案したデータセットに基づいてモデルをトレーニングし、一連の主観評価を行う。
論文 参考訳(メタデータ) (2021-06-17T08:34:21Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。