論文の概要: Multi-Task Learning of Generation and Classification for Emotion-Aware
Dialogue Response Generation
- arxiv url: http://arxiv.org/abs/2105.11696v1
- Date: Tue, 25 May 2021 06:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 01:51:48.839654
- Title: Multi-Task Learning of Generation and Classification for Emotion-Aware
Dialogue Response Generation
- Title(参考訳): 感情認識対話生成のための生成と分類のマルチタスク学習
- Authors: Tatsuya Ide and Daisuke Kawahara
- Abstract要約: 本稿では,感情に着目したマルチタスク学習を用いたニューラル応答生成モデルを提案する。
我々のモデルは、事前訓練されたトランスフォーマーエンコーダデコーダモデルであるBARTに基づいて、応答を生成し、同時に感情を認識するよう訓練されている。
- 参考スコア(独自算出の注目度): 9.398596037077152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For a computer to naturally interact with a human, it needs to be human-like.
In this paper, we propose a neural response generation model with multi-task
learning of generation and classification, focusing on emotion. Our model based
on BART (Lewis et al., 2020), a pre-trained transformer encoder-decoder model,
is trained to generate responses and recognize emotions simultaneously.
Furthermore, we weight the losses for the tasks to control the update of
parameters. Automatic evaluations and crowdsourced manual evaluations show that
the proposed model makes generated responses more emotionally aware.
- Abstract(参考訳): コンピュータが人間と自然に相互作用するためには、人間らしくなければならない。
本稿では,感情に着目した,生成と分類のマルチタスク学習を用いたニューラルレスポンス生成モデルを提案する。
BART(Lewis et al., 2020)をモデルとして, 学習前のトランスフォーマーエンコーダ・デコーダモデルを構築し, 応答の生成と感情の認識を同時に行う。
さらに,タスクの損失を重み付けてパラメータの更新を制御する。
自動評価とクラウドソースによる手動評価は,提案モデルが生成した応答をより感情的に認識することを示す。
関連論文リスト
- Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Computer Vision Estimation of Emotion Reaction Intensity in the Wild [1.5481864635049696]
本稿では,新たに導入された感情反応強度(ERI)推定課題について述べる。
視覚領域で訓練された4つのディープニューラルネットワークと、感情反応強度を予測するために視覚的特徴と音声的特徴の両方で訓練されたマルチモーダルモデルを開発した。
論文 参考訳(メタデータ) (2023-03-19T19:09:41Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - Empathetic Response Generation with State Management [32.421924357260075]
共感的反応生成の目標は、会話における感情を知覚し表現する対話システムの能力を高めることである。
感情や意図を含む複数の状態情報を同時に考察できる新しい共感応答生成モデルを提案する。
実験の結果、異なる情報を動的に管理することは、モデルがより共感的な反応を生成するのに役立つことが示された。
論文 参考訳(メタデータ) (2022-05-07T16:17:28Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Emotion-Aware Transformer Encoder for Empathetic Dialogue Generation [6.557082555839738]
ユーザの発話中の感情的商をキャプチャする感情認識型トランスフォーマーエンコーダを提案する。
感情検知モジュールは、初期段階におけるユーザの感情状態を決定する。
感情埋め込みによる単語埋め込みの追加と正規化を行う新しいトランスフォーマーエンコーダを提案する。
論文 参考訳(メタデータ) (2022-04-24T17:05:36Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z) - The BIRAFFE2 Experiment. Study in Bio-Reactions and Faces for
Emotion-based Personalization for AI Systems [0.0]
異なる人物の感情的反応を捉えるための統一パラダイムを提案する。
機械学習手法のために、簡単に使用・開発できるフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-29T18:35:34Z) - SOLOIST: Building Task Bots at Scale with Transfer Learning and Machine
Teaching [81.45928589522032]
トランスフォーマーに基づく自動回帰言語モデルを用いて,モジュール型タスク指向対話システムをパラメータ化する。
タスクグラウンド応答生成モデルである異種ダイアログコーパスの事前学習を行う。
実験により、SOLOISTは、よく研究されたタスク指向のダイアログベンチマーク上で、新しい最先端のダイアログを生成する。
論文 参考訳(メタデータ) (2020-05-11T17:58:34Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。