論文の概要: MORPHEUS: Modeling Role from Personalized Dialogue History by Exploring and Utilizing Latent Space
- arxiv url: http://arxiv.org/abs/2407.02345v1
- Date: Tue, 2 Jul 2024 15:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 14:56:27.084021
- Title: MORPHEUS: Modeling Role from Personalized Dialogue History by Exploring and Utilizing Latent Space
- Title(参考訳): MORPHEUS:潜在空間の探索と活用による個人化対話履歴のモデル化
- Authors: Yihong Tang, Bo Wang, Dongming Zhao, Xiaojia Jin, Jijun Zhang, Ruifang He, Yuexian Hou,
- Abstract要約: 従来のパーソナライズド・ダイアログ生成(PDG)は、外部ロールデータに依存しており、プライバシーの懸念を生じさせる可能性がある。
textbfPersonalized Dialogue textbfHistory by textbfExploring and textbfUtilizing Latent textbfSpace (MORPHEUS) through a three-stage training process。
- 参考スコア(独自算出の注目度): 16.508815826492814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized Dialogue Generation (PDG) aims to create coherent responses according to roles or personas. Traditional PDG relies on external role data, which can be scarce and raise privacy concerns. Approaches address these issues by extracting role information from dialogue history, which often fail to generically model roles in continuous space. To overcome these limitations, we introduce a novel framework \textbf{MO}dels \textbf{R}oles from \textbf{P}ersonalized Dialogue \textbf{H}istory by \textbf{E}xploring and \textbf{U}tilizing Latent \textbf{S}pace (MORPHEUS) through a three-stage training process. Specifically, we create a persona codebook to represent roles in latent space compactly, and this codebook is used to construct a posterior distribution of role information. This method enables the model to generalize across roles, allowing the generation of personalized dialogues even for unseen roles. Experiments on both Chinese and English datasets demonstrate that MORPHEUS enhances the extraction of role information, and improves response generation without external role data. Additionally, MORPHEUS can be considered an efficient fine-tuning for large language models.
- Abstract(参考訳): パーソナライズされた対話生成(PDG)は、役割やペルソナに応じて一貫性のある応答を生成することを目的としている。
従来のPDGは外部ロールデータに依存しており、プライバシー上の懸念を生じさせる可能性がある。
対話の歴史から役割情報を抽出することでこれらの問題に対処する手法は、しばしば連続空間における役割を総称的にモデル化することができない。
これらの制限を克服するために,3段階のトレーニングプロセスを通じて,新しいフレームワークである \textbf{MO}dels \textbf{R}oles \textbf{P}ersonalized Dialogue \textbf{H}istory を導入する。
具体的には、潜在空間における役割をコンパクトに表現するペルソナコードブックを作成し、このコードブックを用いて役割情報の後部分布を構築する。
この方法では、ロールをまたいでモデルを一般化し、目に見えないロールに対してもパーソナライズされた対話を生成することができる。
中国語と英語の両方のデータセットの実験では、MORPHEUSがロール情報の抽出を強化し、外部ロールデータなしで応答生成を改善することが示されている。
加えて、MORPHEUSは大規模言語モデルの効率的な微調整であると見なすことができる。
関連論文リスト
- The Oscars of AI Theater: A Survey on Role-Playing with Language Models [38.64263714856789]
本調査では,言語モデルを用いたロールプレイングの急成長分野について検討する。
それは、初期のペルソナモデルから、Large Language Models(LLMs)によって促進される高度なキャラクタ駆動シミュレーションまでの開発に焦点を当てている。
データやモデル,アライメント,エージェントアーキテクチャ,評価など,これらのシステムを設計する上で重要なコンポーネントを包括的に分類する。
論文 参考訳(メタデータ) (2024-07-16T08:20:39Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - Learning Retrieval Augmentation for Personalized Dialogue Generation [29.467644429517325]
本稿では,対人対話生成における外部知識の活用の可能性について検討する。
補足データソースとしてROCStoryを用いたCONVAI2データセットを用いて行った実験では,提案手法がベースラインを大幅に上回ることが示された。
論文 参考訳(メタデータ) (2024-06-27T02:38:13Z) - Prompt Framework for Role-playing: Generation and Evaluation [3.2845546753303867]
大規模言語モデル(LLM)は、自然言語の生成、ユーザ・インストラクションの理解、人間の言語使用の模倣において顕著な能力を示した。
本稿では,SOTA(State-of-the-art LLM)を利用して,ロールプレイング対話データセットを構築し,ロールプレイング性能を評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-02T06:09:56Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - Large Language Models Meet Harry Potter: A Bilingual Dataset for
Aligning Dialogue Agents with Characters [70.84938803753062]
本稿では,対話エージェントと文字アライメントの研究を進めるために設計されたHarry Potter Dialogueデータセットを紹介する。
このデータセットはハリー・ポッターシリーズのすべての対話セッション(英語と中国語の両方)を含んでいる。
対話シーン、話者、人物関係、属性など、重要な背景情報とともに注釈付けされている。
論文 参考訳(メタデータ) (2022-11-13T10:16:39Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - Manual-Guided Dialogue for Flexible Conversational Agents [84.46598430403886]
対話データを効率的に構築し、利用する方法や、さまざまなドメインにモデルを大規模にデプロイする方法は、タスク指向の対話システムを構築する上で重要な問題である。
エージェントは対話とマニュアルの両方からタスクを学習する。
提案手法は,詳細なドメインオントロジーに対する対話モデルの依存性を低減し,様々なドメインへの適応をより柔軟にする。
論文 参考訳(メタデータ) (2022-08-16T08:21:12Z) - Cross-Lingual Dialogue Dataset Creation via Outline-Based Generation [70.81596088969378]
言語間アウトラインに基づく対話データセット(COD)は、自然言語の理解を可能にする。
CODは、4つの異なる言語で対話状態の追跡とエンドツーエンドの対話モデリングと評価を可能にする。
論文 参考訳(メタデータ) (2022-01-31T18:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。