論文の概要: PersonaTwin: A Multi-Tier Prompt Conditioning Framework for Generating and Evaluating Personalized Digital Twins
- arxiv url: http://arxiv.org/abs/2508.10906v1
- Date: Wed, 30 Jul 2025 04:57:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.440061
- Title: PersonaTwin: A Multi-Tier Prompt Conditioning Framework for Generating and Evaluating Personalized Digital Twins
- Title(参考訳): PersonaTwin: 個人化されたデジタル双生児の生成と評価のためのマルチティアプロンプトコンディショニングフレームワーク
- Authors: Sihan Chen, John P. Lalor, Yi Yang, Ahmed Abbasi,
- Abstract要約: 本稿では,適応型ディジタルツインを構築する多層プロンプトコンディショニングフレームワークであるPersonaTwinを紹介する。
8500人以上の医療状況における包括的データセットを用いて、PersonaTwinを標準LLM出力に対してベンチマークする。
実験結果から,本フレームワークは設定と同等のシミュレーション忠実度が得られることがわかった。
- 参考スコア(独自算出の注目度): 20.77710199900999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) afford new possibilities for user modeling and approximation of human behaviors, they often fail to capture the multidimensional nuances of individual users. In this work, we introduce PersonaTwin, a multi-tier prompt conditioning framework that builds adaptive digital twins by integrating demographic, behavioral, and psychometric data. Using a comprehensive data set in the healthcare context of more than 8,500 individuals, we systematically benchmark PersonaTwin against standard LLM outputs, and our rigorous evaluation unites state-of-the-art text similarity metrics with dedicated demographic parity assessments, ensuring that generated responses remain accurate and unbiased. Experimental results show that our framework produces simulation fidelity on par with oracle settings. Moreover, downstream models trained on persona-twins approximate models trained on individuals in terms of prediction and fairness metrics across both GPT-4o-based and Llama-based models. Together, these findings underscore the potential for LLM digital twin-based approaches in producing realistic and emotionally nuanced user simulations, offering a powerful tool for personalized digital user modeling and behavior analysis.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ユーザのモデリングや人間の振る舞いの近似に新たな可能性を与えるが、個々のユーザの多次元ニュアンスを捉えるのに失敗することが多い。
本稿では,適応型ディジタルツインを構築する多層プロンプトコンディショニングフレームワークであるPersonaTwinを紹介する。
8500人以上の医療状況における包括的データセットを用いて、PersonaTwinを標準的なLCM出力に対して体系的にベンチマークし、厳密な評価は、最先端のテキスト類似度メトリクスと専用の人口統計学的パーティアセスメントを用いて、生成した応答が正確で偏りがないことを保証します。
実験結果から,本フレームワークはオラクル設定と同等のシミュレーション忠実度が得られることがわかった。
さらに、個人で訓練されたペルソナ・ツインモデルに基づいてトレーニングされた下流モデルは、GPT-4oベースモデルとLlamaベースモデルの両方で予測と公正度指標を用いて訓練された。
これらの知見は、現実的で感情的なニュアンスのあるユーザシミュレーションを作成する上で、LLMデジタルツインベースのアプローチの可能性を強調し、デジタルユーザモデリングと行動分析をパーソナライズするための強力なツールを提供する。
関連論文リスト
- PUB: An LLM-Enhanced Personality-Driven User Behaviour Simulator for Recommender System Evaluation [9.841963696576546]
Personality-driven User Behaviour Simulator (PUB)は、パーソナライズされたユーザの振る舞いをモデル化するために、Big Fiveのパーソナリティ特性を統合している。
PUBは、行動ログ(例えば、評価、レビュー)とアイテムメタデータからユーザーの個性を動的に推論し、その後、実際のデータに対する統計的忠実性を保存するための合成相互作用を生成する。
Amazonレビューデータセットの実験では、PUBが生成したログは実際のユーザの行動と密接に一致し、パーソナリティ特性とレコメンデーション結果の間に有意義な関連性を明らかにする。
論文 参考訳(メタデータ) (2025-06-05T01:57:36Z) - Know You First and Be You Better: Modeling Human-Like User Simulators via Implicit Profiles [37.43150003866563]
我々は,人間と機械のインタラクションから暗黙のユーザプロファイルを推論し,パーソナライズされたリアルな対話をシミュレートする,インプリシットプロファイル付きユーザシミュレータ(USP)を紹介する。
USPは、同等の一貫性を維持しながら、信頼性と多様性の点で、強力なベースラインを上回ります。
論文 参考訳(メタデータ) (2025-02-26T09:26:54Z) - Demographic User Modeling for Social Robotics with Multimodal Pre-trained Models [4.2185937778110825]
ユーザの顔画像から人口統計特性を表現するために特別にキュレートされた2つのデータセットを導入する。
これらのデータセット上で、顕著なコントラスト付きマルチモーダル事前学習モデルCLIPの性能を評価する。
これを解決するために,一般化を改善し,微妙な人口統計特性をよりよく捉えるために,マスク付き画像モデリング戦略を採用することを提案する。
論文 参考訳(メタデータ) (2025-02-15T02:38:58Z) - Synthesizing Post-Training Data for LLMs through Multi-Agent Simulation [51.20656279478878]
MATRIXは、様々なテキストベースのシナリオを自動的に生成するマルチエージェントシミュレータである。
制御可能でリアルなデータ合成のためのMATRIX-Genを紹介する。
AlpacaEval 2 と Arena-Hard のベンチマークでは、Llama-3-8B-Base が、MATRIX-Gen によって合成されたデータセット上で、たった 20K の命令応答ペアで、Meta の Llama-3-8B-Instruct モデルより優れています。
論文 参考訳(メタデータ) (2024-10-18T08:01:39Z) - Chatting Up Attachment: Using LLMs to Predict Adult Bonds [0.0]
GPT-4とClaude 3 Opusを使用して、さまざまなプロファイル、子供時代の記憶、アタッチメントスタイルを持つ大人をシミュレートするエージェントを作成します。
我々は,同一の面接プロトコルを施行し,精神保健専門家によって分析・ラベル付けされた9人のヒトの転写データセットを用いて,我々のモデルを評価した。
以上の結果から,合成データのみを用いたモデルトレーニングは,人間のデータを用いたモデルトレーニングに匹敵する性能を発揮することが示唆された。
論文 参考訳(メタデータ) (2024-08-31T04:29:19Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - BASES: Large-scale Web Search User Simulation with Large Language Model
based Agents [108.97507653131917]
BASESは、大きな言語モデル(LLM)を持つ新しいユーザーシミュレーションフレームワークである。
シミュレーションフレームワークは,大規模に独自のユーザプロファイルを生成することができ,その結果,多様な検索行動が生まれる。
WARRIORSは、中国語と英語の両方のバージョンを含む、Web検索ユーザ行動を含む、新しい大規模なデータセットである。
論文 参考訳(メタデータ) (2024-02-27T13:44:09Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Conditional Generative Models for Simulation of EMG During Naturalistic
Movements [45.698312905115955]
本稿では、運動単位活性化電位波形を生成するために、逆向きに訓練された条件付き生成ニューラルネットワークを提案する。
本研究では,より少ない数の数値モデルの出力を高い精度で予測的に補間できることを実証する。
論文 参考訳(メタデータ) (2022-11-03T14:49:02Z) - How Faithful is your Synthetic Data? Sample-level Metrics for Evaluating
and Auditing Generative Models [95.8037674226622]
ドメインに依存しない方法で生成モデルの忠実度,多様性,一般化性能を特徴付ける3次元評価指標を提案する。
当社のメトリクスは、精度リコール分析により統計的発散測定を統合し、モデル忠実度と多様性のサンプルおよび分布レベルの診断を可能にします。
論文 参考訳(メタデータ) (2021-02-17T18:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。