論文の概要: DPRF: A Generalizable Dynamic Persona Refinement Framework for Optimizing Behavior Alignment Between Personalized LLM Role-Playing Agents and Humans
- arxiv url: http://arxiv.org/abs/2510.14205v1
- Date: Thu, 16 Oct 2025 01:26:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.668438
- Title: DPRF: A Generalizable Dynamic Persona Refinement Framework for Optimizing Behavior Alignment Between Personalized LLM Role-Playing Agents and Humans
- Title(参考訳): DPRF:パーソナライズされたLLMロールプレイングエージェントとヒトの行動アライメントを最適化する汎用動的ペルソナリファインメントフレームワーク
- Authors: Bingsheng Yao, Bo Sun, Yuanzhe Dong, Yuxuan Lu, Dakuo Wang,
- Abstract要約: 言語モデルロールプレイングエージェント(LLM RPA)は、個人の行動のシミュレートを目的としている。
ペルソナの忠実さは、ターゲットの個人と整列することなく手動で作成したプロファイルによって損なわれることが多い。
我々の研究は、DPRF(Dynamic Persona Refinement Framework)を導入し、LLM RPAの動作とターゲット個人とのアライメントを最適化することを目的としている。
- 参考スコア(独自算出の注目度): 28.038221167188013
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The emerging large language model role-playing agents (LLM RPAs) aim to simulate individual human behaviors, but the persona fidelity is often undermined by manually-created profiles (e.g., cherry-picked information and personality characteristics) without validating the alignment with the target individuals. To address this limitation, our work introduces the Dynamic Persona Refinement Framework (DPRF).DPRF aims to optimize the alignment of LLM RPAs' behaviors with those of target individuals by iteratively identifying the cognitive divergence, either through free-form or theory-grounded, structured analysis, between generated behaviors and human ground truth, and refining the persona profile to mitigate these divergences.We evaluate DPRF with five LLMs on four diverse behavior-prediction scenarios: formal debates, social media posts with mental health issues, public interviews, and movie reviews.DPRF can consistently improve behavioral alignment considerably over baseline personas and generalizes across models and scenarios.Our work provides a robust methodology for creating high-fidelity persona profiles and enhancing the validity of downstream applications, such as user simulation, social studies, and personalized AI.
- Abstract(参考訳): 新たな大規模言語モデルロールプレイングエージェント(LLM RPAs)は、個人の行動のシミュレートを目的としているが、人格の忠実度は、対象個人との整合性を検証することなく、手動で作成したプロファイル(例えば、桜の図形情報、性格特性)によって損なわれることが多い。
この制限に対処するため、我々はDynamic Persona Refinement Framework (DPRF)を導入しました。
DPRFは、LLM RPAの行動とターゲット個人の行動との整合性を、自由形式または理論的、構造化された分析を通じて反復的に識別し、生成した行動と人的根拠の真理を区別し、これらの相違を緩和するためにペルソナプロファイルを精査することを目的としている。我々は、フォーマルな議論、メンタルヘルス問題のあるソーシャルメディア投稿、パブリックインタビュー、映画レビューの4つのシナリオにおいて、DPRFを5つのLPMで評価する。DPRFは、ベースラインのペルソナよりもはるかに多くの行動アライメントを一貫して改善し、モデルやシナリオを一般化する。我々の研究は、高忠実なペルソナプロファイルを作成し、ユーザーシミュレーション、社会研究、パーソナライズされたAIなどの下流アプリケーションの有効性を高めるための堅牢な方法論を提供する。
関連論文リスト
- Scaling Law in LLM Simulated Personality: More Detailed and Realistic Persona Profile Is All You Need [17.298070053011802]
本研究では,大規模言語モデル(LLM)を用いて社会実験をシミュレートし,仮想ペルソナロールプレイングにおける人間の個性をエミュレートする能力を探求する。
本研究は、安定性と識別可能性の個人レベルの分析を含むエンドツーエンド評価フレームワークを開発する。
論文 参考訳(メタデータ) (2025-10-10T05:52:07Z) - Implicit Behavioral Alignment of Language Agents in High-Stakes Crowd Simulations [3.0112218223206173]
言語駆動型生成エージェントは、対人訓練からグローバルな政策作成を支援するまで、変革的な利用で社会シミュレーションを可能にした。
近年の研究では、生成的エージェントの行動が、専門家の期待や実世界のデータから逸脱することが多いことが示唆されている。
本稿では,レウィンの行動方程式に基づく分布整合問題として定式化されたPEBA(Persona-Environment Behavioral Alignment)という理論的枠組みを紹介する。
本稿では, エージェントペルソナを反復的に洗練する, LLMに基づく最適化アルゴリズムであるPersonaEvolve(PEvo)を提案する。
論文 参考訳(メタデータ) (2025-09-19T22:35:13Z) - Population-Aligned Persona Generation for LLM-based Social Simulation [58.84363795421489]
本稿では,社会シミュレーションのための高品質な集団対応ペルソナ集合を合成するための体系的枠組みを提案する。
我々のアプローチは、長期のソーシャルメディアデータから物語的ペルソナを生成するために、大きな言語モデルを活用することから始まる。
特定のシミュレーションコンテキストのニーズに対処するために,対象のサブポピュレーションに対してグローバルに整合したペルソナを適応させるタスク固有モジュールを提案する。
論文 参考訳(メタデータ) (2025-09-12T10:43:47Z) - IROTE: Human-like Traits Elicitation of Large Language Model via In-Context Self-Reflective Optimization [66.6349183886101]
IROTEは,安定かつ伝達可能な特性抽出のための新しいインコンテキスト手法である。
IROTEが生成する1つの自己反射は、様々な下流タスクにまたがる目標特性の安定な偽造を LLM が引き起こすことを示す。
論文 参考訳(メタデータ) (2025-08-12T08:04:28Z) - Evaluating the Simulation of Human Personality-Driven Susceptibility to Misinformation with LLMs [0.18416014644193066]
大規模言語モデル(LLM)により、大規模に合成行動データを生成することができる。
我々は,誤情報に対する個人的影響の変動を再現するために,Big-Fiveプロファイルに規定されたLLMエージェントの能力を評価する。
論文 参考訳(メタデータ) (2025-06-30T08:16:07Z) - Personality Alignment of Large Language Models [30.710131188931317]
パーソナリティ・アライメント(Personality Alignment)は、大きな言語モデルと個々のユーザの好みを合わせることを目的としている。
このデータセットには、複数のパーソナリティアセスメントを含む、32万人以上の実際の被験者のデータが含まれている。
本研究では,個人の行動選好を効率的に整合させるために,アクティベーション介入最適化手法を開発した。
私たちの仕事は、未来のAIシステムが真にパーソナライズされた方法で意思決定と推論を行うための道を開くものです。
論文 参考訳(メタデータ) (2024-08-21T17:09:00Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。