論文の概要: Profile-LLM: Dynamic Profile Optimization for Realistic Personality Expression in LLMs
- arxiv url: http://arxiv.org/abs/2511.19852v1
- Date: Tue, 25 Nov 2025 02:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.24099
- Title: Profile-LLM: Dynamic Profile Optimization for Realistic Personality Expression in LLMs
- Title(参考訳): プロファイル-LLM: LLMにおける現実的パーソナリティ表現のための動的プロファイル最適化
- Authors: Shi-Wei Dai, Yan-Wei Shie, Tsung-Huan Yang, Lun-Wei Ku, Yung-Hui Li,
- Abstract要約: PersonaPulseは、状況対応ベンチマークをスコアリングツールとして統合しながら、ロールプレイプロンプトを反復的に強化するフレームワークである。
定量的評価は、PersonaPulseが生成したプロンプトが先行作業のプロンプトより優れていることを示している。
特定の性格特性に対しては、最適化過程を緩和することにより、人格評価の程度を部分的に制御することができる。
- 参考スコア(独自算出の注目度): 11.672385046863655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized Large Language Models (LLMs) have been shown to be an effective way to create more engaging and enjoyable user-AI interactions. While previous studies have explored using prompts to elicit specific personality traits in LLMs, they have not optimized these prompts to maximize personality expression. To address this limitation, we propose PersonaPulse: Dynamic Profile Optimization for Realistic Personality Expression in LLMs, a framework that leverages LLMs' inherent knowledge of personality traits to iteratively enhance role-play prompts while integrating a situational response benchmark as a scoring tool, ensuring a more realistic and contextually grounded evaluation to guide the optimization process. Quantitative evaluations demonstrate that the prompts generated by PersonaPulse outperform those of prior work, which were designed based on personality descriptions from psychological studies. Additionally, we explore the relationship between model size and personality modeling through extensive experiments. Finally, we find that, for certain personality traits, the extent of personality evocation can be partially controlled by pausing the optimization process. These findings underscore the importance of prompt optimization in shaping personality expression within LLMs, offering valuable insights for future research on adaptive AI interactions.
- Abstract(参考訳): パーソナライズされた大規模言語モデル(LLM)は、より魅力的で楽しいユーザ-AIインタラクションを作成する効果的な方法であることが示されている。
これまでの研究では、LLMの特定の人格特性を引き出すためのプロンプトの活用が検討されてきたが、これらのプロンプトはパーソナリティ表現を最大化するために最適化されていない。
この制限に対処するために、我々はPersonaPulse: Dynamic Profile Optimization for Realistic Personality Expression in LLMsを提案する。このフレームワークは、LLMs固有の性格特性の知識を利用して、状況対応ベンチマークをスコアリングツールとして統合しつつ、ロールプレイプロンプトを反復的に強化し、より現実的で文脈的に根ざした評価を確実にし、最適化プロセスを導く。
定量的評価により,PersonaPulseが生成したプロンプトは,心理学的考察から人格記述に基づいて設計した先行作業のプロンプトより優れていたことが示された。
さらに,モデルのサイズとパーソナリティ・モデリングとの関係について,広範な実験を通して検討する。
最後に、特定の性格特性に対して、最適化プロセスの一時停止によって、人格評価の程度を部分的に制御できることを見出した。
これらの知見は、LLM内でのパーソナリティ表現の形成において、迅速な最適化の重要性を強調し、適応型AIインタラクションに関する将来の研究に有用な洞察を提供する。
関連論文リスト
- IROTE: Human-like Traits Elicitation of Large Language Model via In-Context Self-Reflective Optimization [66.6349183886101]
IROTEは,安定かつ伝達可能な特性抽出のための新しいインコンテキスト手法である。
IROTEが生成する1つの自己反射は、様々な下流タスクにまたがる目標特性の安定な偽造を LLM が引き起こすことを示す。
論文 参考訳(メタデータ) (2025-08-12T08:04:28Z) - Teaching Language Models to Evolve with Users: Dynamic Profile Modeling for Personalized Alignment [35.68913976348608]
本稿では,対話を通じてユーザプロファイルを反復的に推測・精査するRLPAフレームワークについて紹介する。
我々はQwen-2.5-3B-インストラクトを微調整することでRLPAをインスタンス化し、Qwen-RLPAはパーソナライズされた対話における最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-05-21T12:38:36Z) - Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - Personality Alignment of Large Language Models [30.710131188931317]
パーソナリティ・アライメント(Personality Alignment)は、大きな言語モデルと個々のユーザの好みを合わせることを目的としている。
このデータセットには、複数のパーソナリティアセスメントを含む、32万人以上の実際の被験者のデータが含まれている。
本研究では,個人の行動選好を効率的に整合させるために,アクティベーション介入最適化手法を開発した。
私たちの仕事は、未来のAIシステムが真にパーソナライズされた方法で意思決定と推論を行うための道を開くものです。
論文 参考訳(メタデータ) (2024-08-21T17:09:00Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - P-React: Synthesizing Topic-Adaptive Reactions of Personality Traits via Mixture of Specialized LoRA Experts [34.374681921626205]
我々は、専門家(MoE)をベースとしたパーソナライズされた大規模言語モデルであるP-Reactを提案する。
特に、パーソナリティ・ロス(PSL)を統合して、個々の特徴表現をよりよく捉えます。
この分野での研究を容易にするため、高品質で人間認証されたデータセットであるOCEAN-Chatをキュレートする。
論文 参考訳(メタデータ) (2024-06-18T12:25:13Z) - Personality Traits in Large Language Models [42.31355340867784]
コミュニケーションの有効性を決定する重要な要因は人格である。
本稿では,広く使用されている大規模言語モデル上でのパーソナリティテストの管理と検証のための,新しい,包括的・包括的心理学的・信頼性の高い方法論を提案する。
本稿では,計測・形成手法の適用と倫理的意味,特に責任あるAIについて論じる。
論文 参考訳(メタデータ) (2023-07-01T00:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。