論文の概要: MORPHEUS: Modeling Role from Personalized Dialogue History by Exploring and Utilizing Latent Space
- arxiv url: http://arxiv.org/abs/2407.02345v1
- Date: Tue, 2 Jul 2024 15:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 14:56:27.084021
- Title: MORPHEUS: Modeling Role from Personalized Dialogue History by Exploring and Utilizing Latent Space
- Title(参考訳): MORPHEUS:潜在空間の探索と活用による個人化対話履歴のモデル化
- Authors: Yihong Tang, Bo Wang, Dongming Zhao, Xiaojia Jin, Jijun Zhang, Ruifang He, Yuexian Hou,
- Abstract要約: 従来のパーソナライズド・ダイアログ生成(PDG)は、外部ロールデータに依存しており、プライバシーの懸念を生じさせる可能性がある。
textbfPersonalized Dialogue textbfHistory by textbfExploring and textbfUtilizing Latent textbfSpace (MORPHEUS) through a three-stage training process。
- 参考スコア(独自算出の注目度): 16.508815826492814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized Dialogue Generation (PDG) aims to create coherent responses according to roles or personas. Traditional PDG relies on external role data, which can be scarce and raise privacy concerns. Approaches address these issues by extracting role information from dialogue history, which often fail to generically model roles in continuous space. To overcome these limitations, we introduce a novel framework \textbf{MO}dels \textbf{R}oles from \textbf{P}ersonalized Dialogue \textbf{H}istory by \textbf{E}xploring and \textbf{U}tilizing Latent \textbf{S}pace (MORPHEUS) through a three-stage training process. Specifically, we create a persona codebook to represent roles in latent space compactly, and this codebook is used to construct a posterior distribution of role information. This method enables the model to generalize across roles, allowing the generation of personalized dialogues even for unseen roles. Experiments on both Chinese and English datasets demonstrate that MORPHEUS enhances the extraction of role information, and improves response generation without external role data. Additionally, MORPHEUS can be considered an efficient fine-tuning for large language models.
- Abstract(参考訳): パーソナライズされた対話生成(PDG)は、役割やペルソナに応じて一貫性のある応答を生成することを目的としている。
従来のPDGは外部ロールデータに依存しており、プライバシー上の懸念を生じさせる可能性がある。
対話の歴史から役割情報を抽出することでこれらの問題に対処する手法は、しばしば連続空間における役割を総称的にモデル化することができない。
これらの制限を克服するために,3段階のトレーニングプロセスを通じて,新しいフレームワークである \textbf{MO}dels \textbf{R}oles \textbf{P}ersonalized Dialogue \textbf{H}istory を導入する。
具体的には、潜在空間における役割をコンパクトに表現するペルソナコードブックを作成し、このコードブックを用いて役割情報の後部分布を構築する。
この方法では、ロールをまたいでモデルを一般化し、目に見えないロールに対してもパーソナライズされた対話を生成することができる。
中国語と英語の両方のデータセットの実験では、MORPHEUSがロール情報の抽出を強化し、外部ロールデータなしで応答生成を改善することが示されている。
加えて、MORPHEUSは大規模言語モデルの効率的な微調整であると見なすことができる。
関連論文リスト
- ERABAL: Enhancing Role-Playing Agents through Boundary-Aware Learning [17.5855800570993]
ヒューマン・コンピュータ・インタラクション(HCI)分野におけるロールプレイング
大幅な進歩にもかかわらず、ロールプレイングエージェント(RPLA)は、会話間のロール一貫性を維持するのに依然として苦労している。
境界認識学習によるロールプレイング能力向上を目的としたフレームワークであるERABALを提案する。
論文 参考訳(メタデータ) (2024-09-23T05:12:13Z) - BEYOND DIALOGUE: A Profile-Dialogue Alignment Framework Towards General Role-Playing Language Model [12.617285298415013]
大規模言語モデル(LLM)の急速な進歩はロールプレイングに革命をもたらし、一般的なロールプレイングモデルの開発を可能にした。
現在のロールプレイングトレーニングには2つの大きな問題がある: (I) 特定のシナリオに対する対話トレーニングを促すために事前に定義されたロールプロファイルを使用することで、対話とプロファイルの間に矛盾や矛盾が生じ、トレーニングバイアスが生じる。
我々はこれらのハードルを克服するために、DIALOGUEと呼ばれるシンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-20T14:47:38Z) - The Oscars of AI Theater: A Survey on Role-Playing with Language Models [38.68597594794648]
本調査では,言語モデルを用いたロールプレイングの急成長分野について検討する。
それは、初期のペルソナモデルから、Large Language Models(LLMs)によって促進される高度なキャラクタ駆動シミュレーションまでの開発に焦点を当てている。
データやモデル,アライメント,エージェントアーキテクチャ,評価など,これらのシステムを設計する上で重要なコンポーネントを包括的に分類する。
論文 参考訳(メタデータ) (2024-07-16T08:20:39Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - Learning Retrieval Augmentation for Personalized Dialogue Generation [29.467644429517325]
本稿では,対人対話生成における外部知識の活用の可能性について検討する。
補足データソースとしてROCStoryを用いたCONVAI2データセットを用いて行った実験では,提案手法がベースラインを大幅に上回ることが示された。
論文 参考訳(メタデータ) (2024-06-27T02:38:13Z) - Prompt Framework for Role-playing: Generation and Evaluation [3.2845546753303867]
大規模言語モデル(LLM)は、自然言語生成、ユーザ命令の理解、人間に似た言語使用のエミュレートにおいて、優れた習熟度を示す。
このプロジェクトでは、ロールプレイング対話データセットの生成にGPTの機能を活用するために設計されたプロンプトベースのフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-06-02T06:09:56Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - Large Language Models Meet Harry Potter: A Bilingual Dataset for
Aligning Dialogue Agents with Characters [70.84938803753062]
本稿では,対話エージェントと文字アライメントの研究を進めるために設計されたHarry Potter Dialogueデータセットを紹介する。
このデータセットはハリー・ポッターシリーズのすべての対話セッション(英語と中国語の両方)を含んでいる。
対話シーン、話者、人物関係、属性など、重要な背景情報とともに注釈付けされている。
論文 参考訳(メタデータ) (2022-11-13T10:16:39Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - Manual-Guided Dialogue for Flexible Conversational Agents [84.46598430403886]
対話データを効率的に構築し、利用する方法や、さまざまなドメインにモデルを大規模にデプロイする方法は、タスク指向の対話システムを構築する上で重要な問題である。
エージェントは対話とマニュアルの両方からタスクを学習する。
提案手法は,詳細なドメインオントロジーに対する対話モデルの依存性を低減し,様々なドメインへの適応をより柔軟にする。
論文 参考訳(メタデータ) (2022-08-16T08:21:12Z) - Cross-Lingual Dialogue Dataset Creation via Outline-Based Generation [70.81596088969378]
言語間アウトラインに基づく対話データセット(COD)は、自然言語の理解を可能にする。
CODは、4つの異なる言語で対話状態の追跡とエンドツーエンドの対話モデリングと評価を可能にする。
論文 参考訳(メタデータ) (2022-01-31T18:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。