論文の概要: LLM Generated Persona is a Promise with a Catch
- arxiv url: http://arxiv.org/abs/2503.16527v1
- Date: Tue, 18 Mar 2025 03:11:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:59:03.178941
- Title: LLM Generated Persona is a Promise with a Catch
- Title(参考訳): LLM生成ペルソナはキャッチの約束
- Authors: Ang Li, Haozhe Chen, Hongseok Namkoong, Tianyi Peng,
- Abstract要約: ペルソナをベースとしたシミュレーションは、人口レベルのフィードバックに依存した変革の規律を約束する。
現実的なペルソナデータを収集する従来の方法は課題に直面します。
プライバシーの制約により、違法に高価で物議を醸している。
- 参考スコア(独自算出の注目度): 18.45442859688198
- License:
- Abstract: The use of large language models (LLMs) to simulate human behavior has gained significant attention, particularly through personas that approximate individual characteristics. Persona-based simulations hold promise for transforming disciplines that rely on population-level feedback, including social science, economic analysis, marketing research, and business operations. Traditional methods to collect realistic persona data face significant challenges. They are prohibitively expensive and logistically challenging due to privacy constraints, and often fail to capture multi-dimensional attributes, particularly subjective qualities. Consequently, synthetic persona generation with LLMs offers a scalable, cost-effective alternative. However, current approaches rely on ad hoc and heuristic generation techniques that do not guarantee methodological rigor or simulation precision, resulting in systematic biases in downstream tasks. Through extensive large-scale experiments including presidential election forecasts and general opinion surveys of the U.S. population, we reveal that these biases can lead to significant deviations from real-world outcomes. Our findings underscore the need to develop a rigorous science of persona generation and outline the methodological innovations, organizational and institutional support, and empirical foundations required to enhance the reliability and scalability of LLM-driven persona simulations. To support further research and development in this area, we have open-sourced approximately one million generated personas, available for public access and analysis at https://huggingface.co/datasets/Tianyi-Lab/Personas.
- Abstract(参考訳): 人間の振る舞いをシミュレートする大規模言語モデル (LLM) の使用は、特に個人の特徴を近似したペルソナを通じて大きな注目を集めている。
ペルソナをベースとしたシミュレーションは、社会科学、経済分析、マーケティング研究、ビジネスオペレーションなど、人口レベルのフィードバックに依存する分野を変えることを約束している。
現実的なペルソナデータを収集する従来の手法は、重大な課題に直面している。
プライバシーの制約により、違法に高価で物議を醸し、しばしば多次元の属性、特に主観的品質を捉えない。
LLMを用いた合成ペルソナ生成は、スケーラブルで費用対効果の高い代替手段を提供する。
しかし、現在のアプローチは、方法論的な厳密さやシミュレーションの精度を保証しないアドホックでヒューリスティックな生成技術に依存しており、下流のタスクに体系的なバイアスをもたらす。
大統領選挙予測や一般世論調査を含む大規模な実験を通じて、これらのバイアスが現実の成果から著しく逸脱することを明らかにする。
LLMによるペルソナシミュレーションの信頼性とスケーラビリティを高めるために必要な方法論的革新,組織的,制度的支援,実証的基盤を概説する。
この分野のさらなる研究と開発を支援するため、私たちは、https://huggingface.co/datasets/Tianyi-Lab/Personas.comで公開アクセスと分析が可能な、約100万人の生成されたペルソナをオープンソース化しました。
関連論文リスト
- Specializing Large Language Models to Simulate Survey Response Distributions for Global Populations [49.908708778200115]
我々は,調査応答分布をシミュレートする大規模言語モデル (LLM) を最初に開発した。
テストベッドとして、我々は2つの世界文化調査の国レベルの結果を使用します。
予測された応答分布と実際の応答分布のばらつきを最小限に抑えるために, ファースト・ツーケン確率に基づく微調整法を提案する。
論文 参考訳(メタデータ) (2025-02-10T21:59:27Z) - Guided Persona-based AI Surveys: Can we replicate personal mobility preferences at scale using LLMs? [1.7819574476785418]
本研究では,Large Language Models (LLMs) が人工的なサーベイを生成する可能性について検討する。
合成データ作成にLLMを活用することにより,従来の調査手法の限界に対処することを目指す。
Personas」を取り入れた新しい手法が提案され、他の5つの総合的なサーベイ手法と比較された。
論文 参考訳(メタデータ) (2025-01-20T15:11:03Z) - Large Language Models for Market Research: A Data-augmentation Approach [3.3199591445531453]
大規模言語モデル(LLM)は、複雑な自然言語処理タスクに優れ、人工知能を変革した。
近年の研究では、LLMが生成するデータと人間のデータの間に大きなギャップが見られ、両者を置換する際にバイアスが発生している。
コンジョイント解析において,LLM生成データと実データとを効率的に統合する新しい統計データ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T22:06:29Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - GenSim: A General Social Simulation Platform with Large Language Model based Agents [111.00666003559324]
我々はtextitGenSim と呼ばれる新しい大規模言語モデル (LLM) ベースのシミュレーションプラットフォームを提案する。
我々のプラットフォームは10万のエージェントをサポートし、現実世界のコンテキストで大規模人口をシミュレートする。
我々の知る限り、GenSimは汎用的で大規模で修正可能な社会シミュレーションプラットフォームに向けた最初の一歩である。
論文 参考訳(メタデータ) (2024-10-06T05:02:23Z) - Agentic Society: Merging skeleton from real world and texture from Large Language Model [4.740886789811429]
本稿では,人口統計データと大規模言語モデルを利用して仮想人口を生成する新しい枠組みについて検討する。
本手法は,社会科学実験において,多様な人間の行動のシミュレーションに不可欠な多様性のあるペルソナを生産することを示す。
しかし, 評価結果から, 現在のLSMの能力に限界があるため, 統計的真理性の弱い兆候しか得られないことが示唆された。
論文 参考訳(メタデータ) (2024-09-02T08:28:19Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Large Language Models as Subpopulation Representative Models: A Review [5.439020425819001]
大言語モデル(LLM)は、サブポピュレーション代表モデル(SRM)を推定するために用いられる。
LLMは、人口統計、地理的、政治的セグメント間の世論を測る代替的あるいは補完的な手段を提供することができる。
論文 参考訳(メタデータ) (2023-10-27T04:31:27Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。