論文の概要: Personality Structured Interview for Large Language Model Simulation in Personality Research
- arxiv url: http://arxiv.org/abs/2502.12109v1
- Date: Mon, 17 Feb 2025 18:31:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:15:48.894666
- Title: Personality Structured Interview for Large Language Model Simulation in Personality Research
- Title(参考訳): パーソナリティ研究における大規模言語モデルシミュレーションのためのパーソナリティ構造化面接
- Authors: Pengda Wang, Huiqi Zou, Hanjie Chen, Tianjun Sun, Ziang Xiao, Frederick L. Oswald,
- Abstract要約: 人格研究における人間の反応をシミュレートするためのツールとして,理論インフォームド・パーソナリティ構造化インタビューの可能性を探る。
対象サンプルから,32質問に対する個人の回答を含む357件の構造化面接書を作成した。
3つの実験の結果、LLMシミュレーションされた人格データにおいて、よく設計されたインタビューが人間のような不均一性を改善できることを示した。
- 参考スコア(独自算出の注目度): 8.208325358490807
- License:
- Abstract: Although psychometrics researchers have recently explored the use of large language models (LLMs) as proxies for human participants, LLMs often fail to generate heterogeneous data with human-like diversity, which diminishes their value in advancing social science research. To address these challenges, we explored the potential of the theory-informed Personality Structured Interview (PSI) as a tool for simulating human responses in personality research. In this approach, the simulation is grounded in nuanced real-human interview transcripts that target the personality construct of interest. We have provided a growing set of 357 structured interview transcripts from a representative sample, each containing an individual's response to 32 open-ended questions carefully designed to gather theory-based personality evidence. Additionally, grounded in psychometric research, we have summarized an evaluation framework to systematically validate LLM-generated psychometric data. Results from three experiments demonstrate that well-designed structured interviews could improve human-like heterogeneity in LLM-simulated personality data and predict personality-related behavioral outcomes (i.e., organizational citizenship behaviors and counterproductive work behavior). We further discuss the role of theory-informed structured interviews in LLM-based simulation and outline a general framework for designing structured interviews to simulate human-like data for psychometric research.
- Abstract(参考訳): 心理学研究者は最近、人間のプロキシとして大規模言語モデル(LLM)の使用を探求しているが、LLMは人間に似た多様性を持つ異種データの生成に失敗し、社会科学研究の進歩においてその価値を低下させる。
これらの課題に対処するために、人格研究における人間の反応をシミュレートするツールとして、理論インフォームド・パーソナリティ構造化面接(PSI)の可能性を検討した。
このアプローチでは,興味の人格構造をターゲットとした,ニュアンスな実人インタビュー書面を基礎としてシミュレーションを行う。
対象サンプルから357件の構造化面接書を作成した。それぞれが、理論に基づく個性証拠を集めるために慎重に設計された32のオープンエンド質問に対する個人の回答を含む。
さらに, 心理測定研究の基盤として, LLM生成心理測定データを体系的に評価するための評価枠組みをまとめた。
3つの実験の結果、構造化された面接は、LLMシミュレーションされた人格データにおける人間のような異質性を改善し、人格関連行動結果(組織的市民権行動と反生産的労働行動)を予測することを実証した。
さらに、LLMシミュレーションにおける理論インフォームド・インタビューの役割について論じ、精神測定研究のための人間のようなデータをシミュレートする構造化インタビューを設計するための一般的な枠組みを概説する。
関連論文リスト
- From Individual to Society: A Survey on Social Simulation Driven by Large Language Model-based Agents [47.935533238820334]
伝統的な社会学研究は、しばしば人間の参加に頼っているが、それは効果的だが、高価であり、スケールが困難であり、倫理的な懸念がある。
大規模言語モデル(LLM)の最近の進歩は、人間の振る舞いをシミュレートし、個々の反応の複製を可能にし、多くの学際的な研究を容易にする可能性を強調している。
シミュレーションは,(1)特定の個人や人口集団を模倣する個人シミュレーション,(2)複数のエージェントが協調して特定の状況における目標を達成するシナリオシミュレーション,(3)エージェント社会内の相互作用をモデル化して実世界のダイナミクスの複雑さや多様性を反映するシミュレーション社会の3種類に分類される。
論文 参考訳(メタデータ) (2024-12-04T18:56:37Z) - Generative Agent Simulations of 1,000 People [56.82159813294894]
本稿では,1,052人の実人の態度と行動をシミュレートする新しいエージェントアーキテクチャを提案する。
生成エージェントは一般社会調査の参加者の回答を85%の精度で再現する。
我々のアーキテクチャは、人種的およびイデオロギー的グループにおける正確さのバイアスを、人口統計学的記述のエージェントと比較して低減する。
論文 参考訳(メタデータ) (2024-11-15T11:14:34Z) - Designing LLM-Agents with Personalities: A Psychometric Approach [0.47498241053872914]
本研究は, 定量的, 制御可能, 心理的に検証された個人性をエージェントに割り当てる新しい手法を提案する。
人体研究の制約を克服し、エージェントを社会科学調査のためのアクセス可能なツールとして提案する。
論文 参考訳(メタデータ) (2024-10-25T01:05:04Z) - 'Simulacrum of Stories': Examining Large Language Models as Qualitative Research Participants [13.693069737188859]
生産モデルに関する最近の興奮は、研究開発における人間の参加と労働の置き換えを示唆する提案の波を引き起こしている。
我々は,このパラダイムシフトの視点を理解するために,19人の定性的な研究者にインタビューを行った。
論文 参考訳(メタデータ) (2024-09-28T18:28:47Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Limited Ability of LLMs to Simulate Human Psychological Behaviours: a Psychometric Analysis [0.27309692684728604]
我々はOpenAIのフラッグシップモデルであるGPT-3.5とGPT-4に、異なるペルソナを仮定し、パーソナ構成の標準化された範囲に対応するよう促す。
その結果, GPT-4からの反応は, GPT-3.5ではなく, 汎用的なペルソナ記述を用いれば, 完全ではないものの, 有望な心理特性を示すことがわかった。
論文 参考訳(メタデータ) (2024-05-12T10:52:15Z) - SeSaMe: A Framework to Simulate Self-Reported Ground Truth for Mental Health Sensing Studies [3.7398400615298466]
メンタルモデル (SeSaMe) は、デジタルメンタルヘルス研究における参加者の負担を軽減する枠組みである。
事前訓練された大規模言語モデル(LLM)を活用することで、SeSaMeは参加者の心理的尺度に対する反応のシミュレーションを可能にする。
本稿では,GPT-4を用いて1つのスケールで応答をシミュレートするSeSaMeの応用例を示す。
論文 参考訳(メタデータ) (2024-03-25T21:48:22Z) - Human Simulacra: Benchmarking the Personification of Large Language Models [38.21708264569801]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。