論文の概要: DLVGen: A Dual Latent Variable Approach to Personalized Dialogue
Generation
- arxiv url: http://arxiv.org/abs/2111.11363v1
- Date: Mon, 22 Nov 2021 17:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 16:06:10.066320
- Title: DLVGen: A Dual Latent Variable Approach to Personalized Dialogue
Generation
- Title(参考訳): DLVGen: パーソナライズされた対話生成のための2つの潜在変数アプローチ
- Authors: Jing Yang Lee, Kong Aik Lee, Woon Seng Gan
- Abstract要約: 本稿では,パーソナライズされた対話を生成するDual Latent Variable Generator (DLVGen)を提案する。
以前の研究とは異なり、DLVGenは潜在的な応答に対する潜伏分布と、エージェントの潜在的なペルソナに対する潜伏分布をモデル化している。
実験の結果,DLVGenはエージェントのペルソナを正確に組み込んだ多様な応答を生成できることがわかった。
- 参考スコア(独自算出の注目度): 28.721411816698563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generation of personalized dialogue is vital to natural and human-like
conversation. Typically, personalized dialogue generation models involve
conditioning the generated response on the dialogue history and a
representation of the persona/personality of the interlocutor. As it is
impractical to obtain the persona/personality representations for every
interlocutor, recent works have explored the possibility of generating
personalized dialogue by finetuning the model with dialogue examples
corresponding to a given persona instead. However, in real-world
implementations, a sufficient number of corresponding dialogue examples are
also rarely available. Hence, in this paper, we propose a Dual Latent Variable
Generator (DLVGen) capable of generating personalized dialogue in the absence
of any persona/personality information or any corresponding dialogue examples.
Unlike prior work, DLVGen models the latent distribution over potential
responses as well as the latent distribution over the agent's potential
persona. During inference, latent variables are sampled from both distributions
and fed into the decoder. Empirical results show that DLVGen is capable of
generating diverse responses which accurately incorporate the agent's persona.
- Abstract(参考訳): パーソナライズされた対話の生成は、自然と人間のような会話に不可欠である。
通常、パーソナライズされた対話生成モデルは、生成した応答を対話履歴とインターロケータのペルソナ/パーソナリティの表現に条件付けする。
対話者ごとにパーソナリティ/パーソナリティ表現を得ることは現実的ではないため、近年では、モデルに与えられたペルソナに対応する対話例を微調整してパーソナライズされた対話を生成する可能性を模索している。
しかし、実世界の実装では、対応する対話例が十分数えることは滅多にない。
そこで本稿では,個人/人格情報や対応する対話例がない場合に,パーソナライズされた対話を生成できる2つの潜時可変発電機(DLVGen)を提案する。
以前の研究とは異なり、dlvgenは潜在的な応答に対する潜在分布とエージェントの潜在ペルソナに対する潜在分布をモデル化している。
推論の間、潜在変数は両方の分布からサンプリングされ、デコーダに供給される。
実験の結果,DLVGenはエージェントのペルソナを正確に組み込んだ多様な応答を生成できることがわかった。
関連論文リスト
- PSYDIAL: Personality-based Synthetic Dialogue Generation using Large Language Models [4.283022729693451]
本稿では,大規模言語モデルからの応答をプロンプトによって引き出すための,エンドツーエンドのパーソナリティに基づく合成対話データ生成パイプラインを提案する。
提案したパイプラインを用いて,パーソナリティに基づく対話に焦点を当てた韓国初の対話データセットPSYDIALを紹介した。
実験結果から, 事前学習モデルと, チャイトチャットデータセットを用いた微調整モデルでは, 人格を反映する応答を生成するのに苦労する一方で, PSYDIALでトレーニングしたモデルでは, 大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-04-01T05:19:34Z) - MPCHAT: Towards Multimodal Persona-Grounded Conversation [54.800425322314105]
我々はペルソナに基づく対話をマルチモーダル領域に拡張し、2つの主要な貢献をする。
まず,MPCHATという対話データセットを提案する。
第2に,マルチモーダル・ペルソナを組み込んだ多モーダル・ペルソナの対話タスクが,統計的に有意な性能向上をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2023-05-27T06:46:42Z) - EM Pre-training for Multi-party Dialogue Response Generation [86.25289241604199]
多人数対話では、応答発話の宛先を生成前に指定する必要がある。
本稿では,アドレナラベルを生成するための期待ステップを反復的に実行する期待最大化(EM)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:41Z) - Enhancing Personalized Dialogue Generation with Contrastive Latent
Variables: Combining Sparse and Dense Persona [16.90863217077699]
既存のパーソナライズされた対話エージェントは、スパースまたは密集したペルソナ記述と対話履歴という3つのリソースからペルソナプロファイルをモデル化する。
3つのリソースの利点を組み合わせて、より豊かで正確なペルソナを得る。
中国語と英語のデータセットに対する実験結果は、パーソナライゼーションにおけるモデルの優位性を示している。
論文 参考訳(メタデータ) (2023-05-19T07:24:27Z) - A Model-Agnostic Data Manipulation Method for Persona-based Dialogue
Generation [107.82729587882397]
現在のペルソナベースの対話データセットのスケールアップには費用がかかる。
このタスクの各データサンプルは、従来の対話データよりも複雑である。
本稿では,ペルソナをベースとした対話生成モデルにおいて,モデルに依存しないデータ操作手法を提案する。
論文 参考訳(メタデータ) (2022-04-21T03:49:54Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - Less is More: Learning to Refine Dialogue History for Personalized
Dialogue Generation [57.73547958927826]
我々は,対話履歴をより多く処理し,より正確なペルソナ情報を得ることのできる,ユーザ対話履歴を大規模に洗練することを提案する。
具体的には、3つの個人情報精算器とパーソナライズされた応答生成器で構成されるMSPモデルを設計する。
論文 参考訳(メタデータ) (2022-04-18T02:02:56Z) - Towards Building a Personalized Dialogue Generator via Implicit User
Persona Detection [0.0]
高品質なトランスミッションは基本的に、相手のペルソナを反映して構築されていると考えています。
そこで本研究では,暗黙のユーザペルソナを検知する対話生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-15T08:12:10Z) - Learning to Predict Persona Information forDialogue Personalization
without Explicit Persona Description [10.17868476063421]
対話エージェントをパーソナライズするために,対話履歴に基づいてペルソナ情報を予測する方法を提案する。
PersonaChatデータセットの実験結果から,提案手法は生成した応答の一貫性を向上させることができることがわかった。
トレーニングされたペルソナ予測モデルは、他のデータセットにうまく転送することができ、より関連するレスポンスを生成するのに役立つ。
論文 参考訳(メタデータ) (2021-11-30T03:19:24Z) - The Adapter-Bot: All-In-One Controllable Conversational Model [66.48164003532484]
本稿では、DialGPTなどの固定バックボーンモデルを用いて、異なるアダプタを介してオンデマンド対話スキルをトリガーする対話モデルを提案する。
スキルに応じて、モデルはテキスト、テーブル、強調応答などの複数の知識タイプを処理できる。
我々は,既存の会話モデルと比較し,自動評価を用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2020-08-28T10:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。