論文の概要: PsyMem: Fine-grained psychological alignment and Explicit Memory Control for Advanced Role-Playing LLMs
- arxiv url: http://arxiv.org/abs/2505.12814v1
- Date: Mon, 19 May 2025 07:45:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.472744
- Title: PsyMem: Fine-grained psychological alignment and Explicit Memory Control for Advanced Role-Playing LLMs
- Title(参考訳): PsyMem: 高度なロールプレイングLLMのためのきめ細かい心理的アライメントと明示的記憶制御
- Authors: Xilong Cheng, Yunxiao Qin, Yuting Tan, Zhengnan Li, Ye Wang, Hongjiang Xiao, Yuan Zhang,
- Abstract要約: PsyMemは、きめ細かい心理的属性と、ロールプレイングのための明示的なメモリ制御を統合する新しいフレームワークである。
Qwen2.5-7B-Instructを特別に設計したデータセットでトレーニングすることで、PsyMem-Qwenはロールプレイングにおいてベースラインモデルより優れています。
- 参考スコア(独自算出の注目度): 12.630100884232194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing LLM-based role-playing methods often rely on superficial textual descriptions or simplistic metrics, inadequately modeling both intrinsic and extrinsic character dimensions. Additionally, they typically simulate character memory with implicit model knowledge or basic retrieval augment generation without explicit memory alignment, compromising memory consistency. The two issues weaken reliability of role-playing LLMs in several applications, such as trustworthy social simulation. To address these limitations, we propose PsyMem, a novel framework integrating fine-grained psychological attributes and explicit memory control for role-playing. PsyMem supplements textual descriptions with 26 psychological indicators to detailed model character. Additionally, PsyMem implements memory alignment training, explicitly trains the model to align character's response with memory, thereby enabling dynamic memory-controlled responding during inference. By training Qwen2.5-7B-Instruct on our specially designed dataset (including 5,414 characters and 38,962 dialogues extracted from novels), the resulting model, termed as PsyMem-Qwen, outperforms baseline models in role-playing, achieving the best performance in human-likeness and character fidelity.
- Abstract(参考訳): 既存のLLMベースのロールプレイング手法は、しばしば表面的なテキスト記述や単純なメトリクスに依存し、本質的な文字次元と外生的な文字次元の両方を不十分にモデル化する。
さらに、一般的には、暗黙のモデル知識や、明示的なメモリアライメントを伴わずに基本的な検索拡張生成で文字メモリをシミュレートし、メモリ一貫性を損なう。
この2つの問題は、信頼性の高い社会シミュレーションなど、いくつかのアプリケーションにおけるロールプレイング LLM の信頼性を弱める。
これらの制約に対処するため、我々はPsyMemを提案する。PsyMemは、きめ細かい心理的属性と、ロールプレイングのための明示的なメモリ制御を統合した新しいフレームワークである。
PsyMemは、詳細なモデルキャラクタに26の心理的指標でテキスト記述を補完する。
さらに、PsyMemはメモリアライメントトレーニングを実装し、キャラクタの応答とメモリとの整合性を明示的にトレーニングすることで、推論中に動的メモリ制御応答を可能にする。
Qwen2.5-7B-Instruct on our special designed dataset(5,414文字と38,962対話を含む)をトレーニングすることにより、PsyMem-Qwenと呼ばれる結果のモデルは、ロールプレイングにおいてベースラインモデルより優れ、人間の類似性とキャラクタ忠実性において最高のパフォーマンスを達成する。
関連論文リスト
- CharacterBox: Evaluating the Role-Playing Capabilities of LLMs in Text-Based Virtual Worlds [74.02480671181685]
ロールプレイングは大規模言語モデル(LLM)の重要な機能である
現在の評価手法は, 実演に不可欠なニュアンス特性や動作を適切に把握するに足りていない。
本研究では,キャラクタボックスを提案する。キャラクタボックスは,キャラクタの微粒な挙動を再現するシミュレーションサンドボックスである。
論文 参考訳(メタデータ) (2024-12-07T12:09:35Z) - Emotional RAG: Enhancing Role-Playing Agents through Emotional Retrieval [30.579043495085777]
本稿では,ロールプレイングエージェントの感情状態を考慮した感情認識型記憶検索フレームワーク「感情RAG」を提案する。
本フレームワークは,ロールプレイングエージェントの個性を維持する上での感情的要因を考慮せずに,その手法より優れる。
論文 参考訳(メタデータ) (2024-10-30T14:08:50Z) - MADial-Bench: Towards Real-world Evaluation of Memory-Augmented Dialogue Generation [15.64077949677469]
メモリ拡張対話システム(MADS)の有効性を評価するための新しいメモリ拡張対話ベンチマーク(MADail-Bench)を提案する。
このベンチマークは2つのタスクを別々に評価する: メモリ検索とメモリ認識は、パッシブとプロアクティブの両方のメモリリコールデータを組み込んだものである。
このベンチマークにおける最先端の埋め込みモデルと大規模言語モデルの結果は、さらなる進歩の可能性を示している。
論文 参考訳(メタデータ) (2024-09-23T17:38:41Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,大規模言語モデル(LLM)の拡張手法であるMemLLMを紹介する。
実験の結果, 言語モデリング, 特に知識集約型タスクにおいて, MemLLMはLLMの性能と解釈可能性を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - MemoryBank: Enhancing Large Language Models with Long-Term Memory [7.654404043517219]
本稿では,大規模言語モデルに適した新しいメモリ機構であるMemoryBankを提案する。
MemoryBankは、モデルが関連するメモリを呼び出し、継続的なメモリ更新を通じて継続的に進化し、過去のインタラクションから情報を合成することで、ユーザの個性に適応することを可能にする。
論文 参考訳(メタデータ) (2023-05-17T14:40:29Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。