論文の概要: From Five Dimensions to Many: Large Language Models as Precise and Interpretable Psychological Profilers
- arxiv url: http://arxiv.org/abs/2511.03235v1
- Date: Wed, 05 Nov 2025 06:51:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.362054
- Title: From Five Dimensions to Many: Large Language Models as Precise and Interpretable Psychological Profilers
- Title(参考訳): 五次元から多次元へ:精密かつ解釈可能な心理学的プロファイラとしての大言語モデル
- Authors: Yi-Fei Liu, Yi-Long Lu, Di He, Hang Zhang,
- Abstract要約: 本研究は,人間の心理特性の相関構造を,最小の量的入力からモデル化できるかどうかについて検討する。
我々は816人の個人から、他の9つの心理的尺度でのロールプレイを行うために、ビッグファイブ・パーソナリティ・スケールの反応を持つ様々なLSMを誘導した。
LLMは人間の心理的構造を捉えるのに顕著な精度を示した。
- 参考スコア(独自算出の注目度): 14.983442449498739
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Psychological constructs within individuals are widely believed to be interconnected. We investigated whether and how Large Language Models (LLMs) can model the correlational structure of human psychological traits from minimal quantitative inputs. We prompted various LLMs with Big Five Personality Scale responses from 816 human individuals to role-play their responses on nine other psychological scales. LLMs demonstrated remarkable accuracy in capturing human psychological structure, with the inter-scale correlation patterns from LLM-generated responses strongly aligning with those from human data $(R^2 > 0.89)$. This zero-shot performance substantially exceeded predictions based on semantic similarity and approached the accuracy of machine learning algorithms trained directly on the dataset. Analysis of reasoning traces revealed that LLMs use a systematic two-stage process: First, they transform raw Big Five responses into natural language personality summaries through information selection and compression, analogous to generating sufficient statistics. Second, they generate target scale responses based on reasoning from these summaries. For information selection, LLMs identify the same key personality factors as trained algorithms, though they fail to differentiate item importance within factors. The resulting compressed summaries are not merely redundant representations but capture synergistic information--adding them to original scores enhances prediction alignment, suggesting they encode emergent, second-order patterns of trait interplay. Our findings demonstrate that LLMs can precisely predict individual participants' psychological traits from minimal data through a process of abstraction and reasoning, offering both a powerful tool for psychological simulation and valuable insights into their emergent reasoning capabilities.
- Abstract(参考訳): 個人内の心理的構成物は、相互に相互に結びついていると広く信じられている。
我々は,Large Language Models (LLMs) が,最小の定量的入力から人間の心理特性の相関構造をモデル化できるかどうかを検討した。
我々は816人の個人から、他の9つの心理的尺度でのロールプレイを行うために、ビッグファイブ・パーソナリティ・スケールの反応を持つ様々なLSMを誘導した。
LLMは人間の心理的構造を捉える上で顕著な精度を示し, LLM生成反応のスケール間相関パターンは, 人のデータと強く一致していた(R^2 > 0.89)。
このゼロショットのパフォーマンスは、セマンティックな類似性に基づく予測を大幅に上回り、データセットを直接トレーニングした機械学習アルゴリズムの精度に近づいた。
まず、彼らは情報選択と圧縮を通じて、十分な統計を生成するのに類似した、生のBig Five応答を自然言語の人格要約に変換する。
第2に、これらの要約からの推論に基づいてターゲットスケール応答を生成する。
情報選択では、LLMはトレーニングされたアルゴリズムと同じキーパーソナリティ要素を識別するが、要素間でアイテムの重要性を区別することができない。
圧縮された要約は単なる冗長な表現ではなく、シナジスティックな情報をキャプチャする - 元のスコアにそれらを付加することで予測アライメントが向上し、特性相互作用の創発的2階パターンをエンコードする。
以上の結果から, LLMは, 個人の心理的特徴を最小限のデータから, 抽象化と推論のプロセスを通じて正確に予測し, 心理的シミュレーションのための強力なツールと, 創発的推論能力に関する貴重な洞察を提供することができた。
関連論文リスト
- Effectiveness of Large Language Models in Simulating Regional Psychological Structures: An Empirical Examination of Personality and Subjective Well-being [0.0]
本研究では, LLMが人口統計情報に基づいて, 文化的根拠を持つ心理的パターンをシミュレートできるかどうかを検討する。
模擬参加者は、外転や開放性が低下し、同意性や神経症が向上し、常に幸福度が低下した。
論文 参考訳(メタデータ) (2025-09-29T09:12:18Z) - Evaluating the Simulation of Human Personality-Driven Susceptibility to Misinformation with LLMs [0.18416014644193066]
大規模言語モデル(LLM)により、大規模に合成行動データを生成することができる。
我々は,誤情報に対する個人的影響の変動を再現するために,Big-Fiveプロファイルに規定されたLLMエージェントの能力を評価する。
論文 参考訳(メタデータ) (2025-06-30T08:16:07Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Giving AI Personalities Leads to More Human-Like Reasoning [7.124736158080938]
我々は,人間集団の多様な推論行動を模倣するAIの可能性について検討する。
自然言語推論(NLI)フォーマットを新たに一般化した推論タスクを設計した。
我々は、人格特性を反映したAI応答を誘発するために、ビッグファイブのパーソナリティモデルにインスパイアされたパーソナリティベースのプロンプトを用いた。
論文 参考訳(メタデータ) (2025-02-19T23:51:23Z) - Neuron-based Personality Trait Induction in Large Language Models [115.08894603023712]
大規模言語モデル (LLM) は、様々な性格特性をシミュレートする能力が増している。
LLMにおけるパーソナリティ特性誘導のためのニューロンに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-16T07:47:45Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Personality Traits in Large Language Models [42.31355340867784]
コミュニケーションの有効性を決定する重要な要因は人格である。
本稿では,広く使用されている大規模言語モデル上でのパーソナリティテストの管理と検証のための,新しい,包括的・包括的心理学的・信頼性の高い方法論を提案する。
本稿では,計測・形成手法の適用と倫理的意味,特に責任あるAIについて論じる。
論文 参考訳(メタデータ) (2023-07-01T00:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。