論文の概要: PsyPlay: Personality-Infused Role-Playing Conversational Agents
- arxiv url: http://arxiv.org/abs/2502.03821v1
- Date: Thu, 06 Feb 2025 07:17:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 15:30:40.65936
- Title: PsyPlay: Personality-Infused Role-Playing Conversational Agents
- Title(参考訳): PsyPlay: パーソナリティを駆使したロールプレイング会話エージェント
- Authors: Tao Yang, Yuhua Zhu, Xiaojun Quan, Cong Liu, Qifan Wang,
- Abstract要約: PsyPlayは、リッチなパーソナリティの表現を容易にする対話生成フレームワークである。
我々は,PsyPlayが意図した性格特性を正確に表現でき,GPT-3.5で全体の成功率が80.31%に達することを示す。
我々はPsyPlay-Benchと呼ばれるパーソナライズされたロールプレイのための対話コーパスを構築した。
- 参考スコア(独自算出の注目度): 44.621060656111084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current research on Role-Playing Conversational Agents (RPCAs) with Large Language Models (LLMs) primarily focuses on imitating specific speaking styles and utilizing character backgrounds, neglecting the depiction of deeper personality traits.~In this study, we introduce personality-infused role-playing for LLM agents, which encourages agents to accurately portray their designated personality traits during dialogues. We then propose PsyPlay, a dialogue generation framework that facilitates the expression of rich personalities among multiple LLM agents. Specifically, PsyPlay enables agents to assume roles with distinct personality traits and engage in discussions centered around specific topics, consistently exhibiting their designated personality traits throughout the interactions. Validation on generated dialogue data demonstrates that PsyPlay can accurately portray the intended personality traits, achieving an overall success rate of 80.31% on GPT-3.5. Notably, we observe that LLMs aligned with positive values are more successful in portraying positive personality roles compared to negative ones. Moreover, we construct a dialogue corpus for personality-infused role-playing, called PsyPlay-Bench. The corpus, which consists of 4745 instances of correctly portrayed dialogues using PsyPlay, aims to further facilitate research in personalized role-playing and dialogue personality detection.
- Abstract(参考訳): ロールプレイング会話エージェント (RPCA) とLarge Language Models (LLMs) に関する現在の研究は、主に特定の話し方スタイルの模倣と文字背景の活用に焦点を当てており、より深い性格特性の描写を無視している。
本研究では,LLMエージェントに対するパーソナリティ注入型ロールプレイングを導入し,エージェントが対話中に指定されたパーソナリティの特徴を正確に表現することを奨励する。
次に,複数のLLMエージェント間のリッチな個人性表現を容易にする対話生成フレームワークであるPsyPlayを提案する。
具体的には、PsyPlayは、エージェントが異なる個性特性を持つ役割を引き受け、特定のトピックを中心にした議論を行うことを可能にする。
生成した対話データに対する検証は、PsyPlayが意図した性格特性を正確に表現でき、GPT-3.5で全体の成功率が80.31%に達することを示す。
特に, 肯定値に整合したLDMが, 否定的よりも肯定的な性格的役割を表現することに成功していることが明らかとなった。
さらに,PsyPlay-Benchと呼ばれるパーソナライズされたロールプレイのための対話コーパスを構築した。
コーパスは、PsyPlayを用いた4745の正しく描写された対話のインスタンスで構成され、パーソナライズされたロールプレイングと対話パーソナリティ検出の研究をさらに促進することを目的としている。
関連論文リスト
- Persona Dynamics: Unveiling the Impact of Personality Traits on Agents in Text-Based Games [14.443840118369176]
PANDA: Personality Adapted Neural Decision Agentsは,人格特性をエージェントに投影する新しい手法である。
我々は、25のテキストベースのゲームに16の異なるパーソナリティタイプを配置し、それらのトラジェクトリを分析する。
これらの知見は、対話型環境におけるより整合性があり、効果的で、人間中心の意思決定を促進するためのパーソナリティ適応エージェントの約束を裏付けるものである。
論文 参考訳(メタデータ) (2025-04-09T13:17:00Z) - Collaborative Storytelling and LLM: A Linguistic Analysis of Automatically-Generated Role-Playing Game Sessions [55.2480439325792]
RPG(ロールプレイングゲーム)とは、プレイヤーが互いに対話して物語を作るゲームである。
この共有物語の新たな形態は、主に口頭で注目されている。
本稿では,大言語モデル(LLM)の言語がRPGセッションの生成を依頼した場合に,どの程度に口頭や書面の機能を示すかを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2025-03-26T15:10:47Z) - Towards Enhanced Immersion and Agency for LLM-based Interactive Drama [55.770617779283064]
本論文は,対話型ドラマを2つの側面から理解することから始まる:没入感,プレイヤーの物語への参加感,エージェンシーである。
これら2つの側面を強化するために,我々はまず,LLMが劇的なストーリーを製作し,構造と物語の質を大幅に向上させる新しい手法であるPlaywriting-Guided Generationを提案する。
論文 参考訳(メタデータ) (2025-02-25T06:06:16Z) - CharacterBox: Evaluating the Role-Playing Capabilities of LLMs in Text-Based Virtual Worlds [74.02480671181685]
ロールプレイングは大規模言語モデル(LLM)の重要な機能である
現在の評価手法は, 実演に不可欠なニュアンス特性や動作を適切に把握するに足りていない。
本研究では,キャラクタボックスを提案する。キャラクタボックスは,キャラクタの微粒な挙動を再現するシミュレーションサンドボックスである。
論文 参考訳(メタデータ) (2024-12-07T12:09:35Z) - What if Red Can Talk? Dynamic Dialogue Generation Using Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)を用いて動的かつ文脈的に適切な文字相互作用を生成する対話フィラーフレームワークを提案する。
The Final Fantasy VII Remake and Pokemonの環境でこのフレームワークをテストする。
本研究の目的は,よりニュアンスの高いフィラーダイアログ作成を支援することであり,それによってプレイヤーの没入感を高め,RPG体験の全般的向上を図ることである。
論文 参考訳(メタデータ) (2024-07-29T19:12:18Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - RoleCraft-GLM: Advancing Personalized Role-Playing in Large Language Models [6.753588449962107]
RoleCraft-GLMは、大規模言語モデル(LLM)によるパーソナライズされたロールプレイングの強化を目的とした革新的なフレームワークである。
従来の有名人中心のキャラクターから多彩な非有名人ペルソナへとシフトする、ユニークな会話データセットをコントリビュートする。
私たちのアプローチには、細心の注意深いキャラクタ開発、対話が現実的かつ感情的に共鳴することを保証することが含まれる。
論文 参考訳(メタデータ) (2023-12-17T17:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。