論文の概要: Modulating Language Models with Emotions
- arxiv url: http://arxiv.org/abs/2108.07886v1
- Date: Tue, 17 Aug 2021 21:32:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:52:54.690420
- Title: Modulating Language Models with Emotions
- Title(参考訳): 感情で言語モデルを変調する
- Authors: Ruibo Liu, Jason Wei, Chenyan Jia, Soroush Vosoughi
- Abstract要約: 本研究では,感情応答生成に大規模言語モデルを用いることが可能な変調層正規化の定式化を提案する。
提案手法は,MojiTalkデータセットの自動的および人為的評価において,従来のベースライン法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 2.6149030745627644
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generating context-aware language that embodies diverse emotions is an
important step towards building empathetic NLP systems. In this paper, we
propose a formulation of modulated layer normalization -- a technique inspired
by computer vision -- that allows us to use large-scale language models for
emotional response generation. In automatic and human evaluation on the
MojiTalk dataset, our proposed modulated layer normalization method outperforms
prior baseline methods while maintaining diversity, fluency, and coherence. Our
method also obtains competitive performance even when using only 10% of the
available training data.
- Abstract(参考訳): 多様な感情を具現化する文脈認識言語の生成は共感的なnlpシステムを構築するための重要なステップである。
本稿では,変調層正規化(コンピュータビジョンに触発された手法)を定式化し,感情応答生成に大規模言語モデルを用いる方法を提案する。
mojitalkデータセットの自動的および人的評価において,提案手法は,多様性,流動性,コヒーレンスを維持しつつ,従来のベースライン法を上回っている。
また,利用可能なトレーニングデータの10%しか使用していない場合でも,競争性能が向上する。
関連論文リスト
- The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Factorized Neural Transducer for Efficient Language Model Adaptation [51.81097243306204]
空白および語彙予測を分解し,ニューラルトランスデューサの因子化モデルを提案する。
この因子化は、音声認識のためのトランスデューサにスタンドアロン言語モデルの改善を移すことが期待できる。
提案した因子化ニューラルトランスデューサは、言語モデル適応にドメイン外テキストデータを使用する場合、15%から20%のWER改善が得られることを示す。
論文 参考訳(メタデータ) (2021-09-27T15:04:00Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - Semantic-Enhanced Explainable Finetuning for Open-Domain Dialogues [33.50099424582726]
本稿では,事前訓練された言語モデルとオープンドメイン対話モデルのためのモジュール型対話パラダイムを組み合わせることを提案する。
セマンティック・エンハンスド・ファインタニング(セマンティック・エンハンスド・ファインタニング)は,言語モデルファインタニングタスクとして会話理解,計画,応答生成をインスタンス化する。
論文 参考訳(メタデータ) (2021-06-06T09:03:41Z) - Evaluating the Morphosyntactic Well-formedness of Generated Texts [88.20502652494521]
L'AMBRE – テキストのモルフォシンタク的整形性を評価する指標を提案する。
形態的に豊かな言語に翻訳するシステムのダイアクロニックスタディを通じて,機械翻訳作業におけるメトリックの有効性を示す。
論文 参考訳(メタデータ) (2021-03-30T18:02:58Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - On Learning Text Style Transfer with Direct Rewards [101.97136885111037]
平行コーパスの欠如により、テキストスタイルの転送タスクの教師付きモデルを直接訓練することは不可能である。
我々は、当初、微調整されたニューラルマシン翻訳モデルに使用されていた意味的類似度指標を活用している。
我々のモデルは、強いベースラインに対する自動評価と人的評価の両方において大きな利益をもたらす。
論文 参考訳(メタデータ) (2020-10-24T04:30:02Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Language Models as Emotional Classifiers for Textual Conversations [3.04585143845864]
本稿では,会話中の感情を分類する新しい手法を提案する。
提案手法のバックボーンには,事前学習型言語モデル (LM) がある。
提案手法をIEMOCAPとFriendsデータセットに適用する。
論文 参考訳(メタデータ) (2020-08-27T20:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。