論文の概要: DeepPersona: A Generative Engine for Scaling Deep Synthetic Personas
- arxiv url: http://arxiv.org/abs/2511.07338v2
- Date: Wed, 12 Nov 2025 02:02:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 16:10:53.061805
- Title: DeepPersona: A Generative Engine for Scaling Deep Synthetic Personas
- Title(参考訳): DeepPersona: ディープシンセティックペルソナをスケールするための生成エンジン
- Authors: Zhen Wang, Yufan Zhou, Zhongyan Luo, Lyumanshan Ye, Adam Wood, Man Yao, Luoshang Pan,
- Abstract要約: 物語完全合成ペルソナを合成するためのスケーラブルな生成エンジンであるDEEPPERSONAを紹介する。
まず、アルゴリズムによって、数百以上の階層的に組織化された属性からなる、最も大きな人間帰属分類を構築できる。
我々は、平均して数百の構造化属性と約1MBの物語テキストを持つコヒーレントで現実的なペルソナを条件付きで生成する。
- 参考スコア(独自算出の注目度): 13.83414782465312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulating human profiles by instilling personas into large language models (LLMs) is rapidly transforming research in agentic behavioral simulation, LLM personalization, and human-AI alignment. However, most existing synthetic personas remain shallow and simplistic, capturing minimal attributes and failing to reflect the rich complexity and diversity of real human identities. We introduce DEEPPERSONA, a scalable generative engine for synthesizing narrative-complete synthetic personas through a two-stage, taxonomy-guided method. First, we algorithmically construct the largest-ever human-attribute taxonomy, comprising over hundreds of hierarchically organized attributes, by mining thousands of real user-ChatGPT conversations. Second, we progressively sample attributes from this taxonomy, conditionally generating coherent and realistic personas that average hundreds of structured attributes and roughly 1 MB of narrative text, two orders of magnitude deeper than prior works. Intrinsic evaluations confirm significant improvements in attribute diversity (32 percent higher coverage) and profile uniqueness (44 percent greater) compared to state-of-the-art baselines. Extrinsically, our personas enhance GPT-4.1-mini's personalized question answering accuracy by 11.6 percent on average across ten metrics and substantially narrow (by 31.7 percent) the gap between simulated LLM citizens and authentic human responses in social surveys. Our generated national citizens reduced the performance gap on the Big Five personality test by 17 percent relative to LLM-simulated citizens. DEEPPERSONA thus provides a rigorous, scalable, and privacy-free platform for high-fidelity human simulation and personalized AI research.
- Abstract(参考訳): 大規模言語モデル(LLM)へのペルソナの注入による人体プロファイルのシミュレーションは,エージェント行動シミュレーション,LLMパーソナライゼーション,人間-AIアライメントの研究を急速に変化させている。
しかし、既存の合成ペルソナのほとんどは浅く単純であり、最小限の属性を捉え、実際の人間のアイデンティティの複雑さと多様性を反映していない。
DeEPPERSONAは,2段階の分類誘導手法を用いて,物語完全合成ペルソナを合成するためのスケーラブルな生成エンジンである。
まず、何千もの実際のユーザ-ChatGPT会話をマイニングすることで、何百もの階層的な属性を含む、最も大きな人間-属性の分類をアルゴリズムで構築する。
第2に、この分類学から属性を段階的にサンプリングし、平均的な数百の構造化された属性と約1MBの物語テキストを条件付きで生成する。
固有の評価では、属性の多様性(カバレッジが32%高い)とプロファイルのユニークさ(44%高い)が、最先端のベースラインに比べて大幅に改善されていることが確認されている。
GPT-4.1-miniのパーソナライズされた質問応答の精度は10項目平均で11.6パーセント向上し、シミュレートされたLLM市民と社会調査における真の人間の反応のギャップは31.7%縮小した。
LLMを模擬した市民と比較して、国民はビッグファイブ・パーソナリティテストのパフォーマンスギャップを17%減らした。
したがって、DEEPPERSONAは厳格でスケーラブルでプライバシのないプラットフォームで、高忠実な人間のシミュレーションとパーソナライズされたAI研究を提供する。
関連論文リスト
- TwinVoice: A Multi-dimensional Benchmark Towards Digital Twins via LLM Persona Simulation [55.55404595177229]
大型言語モデル(LLM)は、人間のような能力を示す。
TwinVoiceは、さまざまな現実世界のコンテキストにわたるペルソナシミュレーションを評価するためのベンチマークである。
論文 参考訳(メタデータ) (2025-10-29T14:00:42Z) - Human-MME: A Holistic Evaluation Benchmark for Human-Centric Multimodal Large Language Models [118.44328586173556]
MLLM(Multimodal Large Language Models)は視覚的理解タスクにおいて大きな進歩を見せている。
Human-MMEは、人間中心のシーン理解におけるMLLMのより総合的な評価を提供するために設計された、キュレートされたベンチマークである。
我々のベンチマークは、単一対象の理解を多対多の相互理解に拡張する。
論文 参考訳(メタデータ) (2025-09-30T12:20:57Z) - Population-Aligned Persona Generation for LLM-based Social Simulation [58.84363795421489]
本稿では,社会シミュレーションのための高品質な集団対応ペルソナ集合を合成するための体系的枠組みを提案する。
我々のアプローチは、長期のソーシャルメディアデータから物語的ペルソナを生成するために、大きな言語モデルを活用することから始まる。
特定のシミュレーションコンテキストのニーズに対処するために,対象のサブポピュレーションに対してグローバルに整合したペルソナを適応させるタスク固有モジュールを提案する。
論文 参考訳(メタデータ) (2025-09-12T10:43:47Z) - Virtual Personas for Language Models via an Anthology of Backstories [5.2112564466740245]
アンソロジー(アンソロジー、Anthology)は、オープン・エンド・ライフ・ナラティブを利用して、大きな言語モデルを特定のバーチャル・ペルソナに調和させる手法である。
本手法は,実験結果の一貫性と信頼性を高めつつ,多様なサブ集団のより良い表現を確実にすることを示す。
論文 参考訳(メタデータ) (2024-07-09T06:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。