論文の概要: Adapting a Language Model for Controlled Affective Text Generation
- arxiv url: http://arxiv.org/abs/2011.04000v1
- Date: Sun, 8 Nov 2020 15:24:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 08:02:24.257560
- Title: Adapting a Language Model for Controlled Affective Text Generation
- Title(参考訳): 感情テキスト生成制御のための言語モデルの適用
- Authors: Ishika Singh and Ahsan Barkati and Tushar Goswamy and Ashutosh Modi
- Abstract要約: 我々は、感情的な(感情的な)テキストを生成するために、最先端の言語生成モデルを適用する。
我々は,GPT-2のような確率論的テキスト生成モデルにおいて,感情を先行として組み込むことを提案する。
このモデルは、ユーザが生成したテキストのトピックだけでなく、感情のカテゴリや強度を制御する柔軟性を提供する。
- 参考スコア(独自算出の注目度): 2.9267797650223653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human use language not just to convey information but also to express their
inner feelings and mental states. In this work, we adapt the state-of-the-art
language generation models to generate affective (emotional) text. We posit a
model capable of generating affect-driven and topic-focused sentences without
losing grammatical correctness as the affect intensity increases. We propose to
incorporate emotion as prior for the probabilistic state-of-the-art text
generation model such as GPT-2. The model gives a user the flexibility to
control the category and intensity of emotion as well as the topic of the
generated text. Previous attempts at modelling fine-grained emotions fall out
on grammatical correctness at extreme intensities, but our model is resilient
to this and delivers robust results at all intensities. We conduct automated
evaluations and human studies to test the performance of our model and provide
a detailed comparison of the results with other models. In all evaluations, our
model outperforms existing affective text generation models.
- Abstract(参考訳): 人間の言語は情報を伝えるだけでなく、内的感情や精神状態を表現するためにも使われる。
本研究では,最先端言語生成モデルを用いて感情的(感情的)テキストを生成する。
感情の強さが増すにつれて文法的正確性を失うことなく、感情駆動および話題中心の文を生成できるモデルを提案する。
本稿では,gpt-2のような確率的テキスト生成モデルに先立って感情を組み込むことを提案する。
このモデルは、ユーザが生成したテキストのトピックだけでなく、感情のカテゴリや強度を制御する柔軟性を提供する。
これまでの微粒な感情をモデル化する試みは、極端な強度で文法的正しさに反するが、われわれのモデルはこれに耐性があり、あらゆる強度で堅牢な結果をもたらす。
我々は、モデルの性能をテストするために、自動評価と人間実験を行い、結果と他のモデルとの詳細な比較を提供する。
全ての評価において、我々のモデルは既存の感情テキスト生成モデルよりも優れている。
関連論文リスト
- Personalized Text Generation with Fine-Grained Linguistic Control [9.668216418094316]
複数の言語的次元にまたがる微粒な属性の制御に焦点をあてる。
生成モデルを訓練するための新しいベンチマークを導入し、パーソナライズされたテキストを生成する能力を評価する。
論文 参考訳(メタデータ) (2024-02-07T14:41:08Z) - Pre-trained Language Models Do Not Help Auto-regressive Text-to-Image
Generation [86.65991476980648]
我々は,自動回帰テキスト・画像生成のための事前学習言語モデルを適用した。
事前訓練された言語モデルは限られた助けを提供する。
論文 参考訳(メタデータ) (2023-11-27T07:19:26Z) - BatGPT: A Bidirectional Autoregessive Talker from Generative Pre-trained
Transformer [77.28871523946418]
BatGPTは武漢大学と上海江東大学が共同で設計・訓練した大規模言語モデルである。
テキストプロンプト、画像、オーディオなど、さまざまなタイプの入力に応答して、非常に自然で、流動的なテキストを生成することができる。
論文 参考訳(メタデータ) (2023-07-01T15:10:01Z) - Click: Controllable Text Generation with Sequence Likelihood Contrastive
Learning [69.35360098882606]
制御可能なテキスト生成のためのClickを導入し、モデルアーキテクチャを変更する必要はない。
シークエンス確率は対照的な損失を伴い、負のサンプルの生成確率を根本的に低下させる。
また、モデル世代から対照的なサンプルを構築するための、新しいランキングベースの戦略も採用している。
論文 参考訳(メタデータ) (2023-06-06T01:56:44Z) - Estimating the Personality of White-Box Language Models [0.589889361990138]
大規模なテキストコーパスで訓練された大規模言語モデルは、至る所で広範囲のアプリケーションで使用されている。
既存の研究は、これらのモデルが人間の偏見を捉え、捉えていることを示している。
これらのバイアス、特に害を引き起こす可能性のあるバイアスの多くは、十分に調査されている。
しかし、これらのモデルによって受け継がれた人間の性格特性を推測し、変化させる研究は、ほとんど、あるいは存在しない。
論文 参考訳(メタデータ) (2022-04-25T23:53:53Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Fine-Grained Emotion Prediction by Modeling Emotion Definitions [26.098917459551167]
本研究では,感情定義モデルを用いて,テキスト中の感情の微粒化を予測するための新しいフレームワークを提案する。
我々のモデルは、詳細な感情データセットGoEmotionsの既存の最先端よりも優れています。
論文 参考訳(メタデータ) (2021-07-26T12:11:18Z) - EMOVIE: A Mandarin Emotion Speech Dataset with a Simple Emotional
Text-to-Speech Model [56.75775793011719]
音声ファイルを含む9,724のサンプルとその感情ラベル付きアノテーションを含むマンダリン感情音声データセットを導入,公開する。
入力として追加の参照音声を必要とするこれらのモデルとは異なり、我々のモデルは入力テキストから直接感情ラベルを予測し、感情埋め込みに基づいてより表現力のある音声を生成することができる。
実験段階では、まず感情分類タスクによってデータセットの有効性を検証し、次に提案したデータセットに基づいてモデルをトレーニングし、一連の主観評価を行う。
論文 参考訳(メタデータ) (2021-06-17T08:34:21Z) - Residual Energy-Based Models for Text [46.22375671394882]
自動回帰言語モデルの世代は、統計的判別器によって実際のテキストと確実に区別できることを示す。
これは、自己回帰モデルが生成過程に(グローバルに正規化された)判別器を組み込むことで改善できることを示唆している。
論文 参考訳(メタデータ) (2020-04-06T13:44:03Z) - Learning to Compare for Better Training and Evaluation of Open Domain
Natural Language Generation Models [23.62054164511058]
そこで本研究では,文のペアを細調整して比較することで,自然言語生成モデルを評価することを提案する。
完全に自己管理された方法でトレーニングできる一方で、人間の好みのアノテーションを少しだけ含んだモデルをさらに微調整することが可能です。
論文 参考訳(メタデータ) (2020-02-12T15:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。