論文の概要: Large Language Models as Psychological Simulators: A Methodological Guide
- arxiv url: http://arxiv.org/abs/2506.16702v1
- Date: Fri, 20 Jun 2025 02:45:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.318111
- Title: Large Language Models as Psychological Simulators: A Methodological Guide
- Title(参考訳): 心理シミュレータとしての大規模言語モデル : 方法論的ガイド
- Authors: Zhicheng Lin,
- Abstract要約: 本稿では,2つの主要なアプリケーションを対象とした心理シミュレータとして,大規模言語モデルを使用するためのフレームワークを提供する。
シミュレーションでは,集団的カテゴリーを超えて心理的基盤を持つペルソナを開発する手法を提案する。
我々は、素早い感度、トレーニングデータカットオフからの時間的制限、従来の人的対象のレビューを超えて広がる倫理的考慮など、包括的な課題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) offer emerging opportunities for psychological and behavioral research, but methodological guidance is lacking. This article provides a framework for using LLMs as psychological simulators across two primary applications: simulating roles and personas to explore diverse contexts, and serving as computational models to investigate cognitive processes. For simulation, we present methods for developing psychologically grounded personas that move beyond demographic categories, with strategies for validation against human data and use cases ranging from studying inaccessible populations to prototyping research instruments. For cognitive modeling, we synthesize emerging approaches for probing internal representations, methodological advances in causal interventions, and strategies for relating model behavior to human cognition. We address overarching challenges including prompt sensitivity, temporal limitations from training data cutoffs, and ethical considerations that extend beyond traditional human subjects review. Throughout, we emphasize the need for transparency about model capabilities and constraints. Together, this framework integrates emerging empirical evidence about LLM performance--including systematic biases, cultural limitations, and prompt brittleness--to help researchers wrangle these challenges and leverage the unique capabilities of LLMs in psychological research.
- Abstract(参考訳): 大規模言語モデル(LLM)は、心理学と行動研究の新たな機会を提供するが、方法論的ガイダンスは欠如している。
本稿では,LLMを心理学的シミュレータとして用いるためのフレームワークについて述べる。役割とペルソナをシミュレートし,多様なコンテキストを探索し,認知過程を研究するための計算モデルとして機能する。
シミュレーションでは、人口統計のカテゴリを超えて、人間のデータに対する検証戦略や、近づきにくい集団の研究からプロトタイプ研究機器の活用まで、心理学的基盤を持つペルソナを開発する手法を提案する。
認知モデルでは, 内的表現の探索, 因果介入の方法論的進歩, モデル行動と人間の認知との関連性を示す戦略を新たに構築する。
我々は、素早い感度、トレーニングデータカットオフからの時間的制限、従来の人的対象のレビューを超えて広がる倫理的考慮など、包括的な課題に対処する。
全体として、モデルの能力と制約に関する透明性の必要性を強調します。
この枠組みは、LLMのパフォーマンスに関する新たな実証的証拠(体系的バイアス、文化的な制限、不安定性の促進など)を統合することで、研究者がこれらの課題を絞め、心理学研究においてLLMのユニークな能力を活用するのに役立つ。
関連論文リスト
- Humanizing LLMs: A Survey of Psychological Measurements with Tools, Datasets, and Human-Agent Applications [25.38031971196831]
大規模言語モデル(LLM)は、人間中心のタスクでますます使われるようになっている。
彼らの心理的特徴を評価することは、彼らの社会的影響を理解し、信頼できるAIアライメントを確保するために不可欠である。
本研究は,LLMのより解釈しやすく,堅牢で,一般化可能な心理的アセスメントフレームワークを開発するための今後の方向性を提案することを目的とする。
論文 参考訳(メタデータ) (2025-04-30T06:09:40Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。