論文の概要: Individualized Cognitive Simulation in Large Language Models: Evaluating Different Cognitive Representation Methods
- arxiv url: http://arxiv.org/abs/2510.20252v1
- Date: Thu, 23 Oct 2025 06:18:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.447006
- Title: Individualized Cognitive Simulation in Large Language Models: Evaluating Different Cognitive Representation Methods
- Title(参考訳): 大規模言語モデルにおける個別認知シミュレーション:異なる認知表現法の評価
- Authors: Tianyi Zhang, Xiaolin Zhou, Yunzhe Wang, Erik Cambria, David Traum, Rui Mao,
- Abstract要約: 大型言語モデル(LLM)はロールプレイのような表面レベルの人間の振る舞いを確実に模倣する。
しかし、より深い個別化された認知過程をシミュレートする能力は、いまだに理解されていない。
我々は,言語的特徴,概念マッピング,プロファイルに基づく情報など,異なる認知表現を評価する。
- 参考スコア(独自算出の注目度): 36.28947625215469
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Individualized cognitive simulation (ICS) aims to build computational models that approximate the thought processes of specific individuals. While large language models (LLMs) convincingly mimic surface-level human behavior such as role-play, their ability to simulate deeper individualized cognitive processes remains poorly understood. To address this gap, we introduce a novel task that evaluates different cognitive representation methods in ICS. We construct a dataset from recently published novels (later than the release date of the tested LLMs) and propose an 11-condition cognitive evaluation framework to benchmark seven off-the-shelf LLMs in the context of authorial style emulation. We hypothesize that effective cognitive representations can help LLMs generate storytelling that better mirrors the original author. Thus, we test different cognitive representations, e.g., linguistic features, concept mappings, and profile-based information. Results show that combining conceptual and linguistic features is particularly effective in ICS, outperforming static profile-based cues in overall evaluation. Importantly, LLMs are more effective at mimicking linguistic style than narrative structure, underscoring their limits in deeper cognitive simulation. These findings provide a foundation for developing AI systems that adapt to individual ways of thinking and expression, advancing more personalized and human-aligned creative technologies.
- Abstract(参考訳): 個別認知シミュレーション(ICS)は、特定の個人の思考過程を近似する計算モデルを構築することを目的としている。
大きな言語モデル(LLM)は、ロールプレイのような表面レベルの人間の振る舞いを説得力を持って模倣するが、より深い個別化された認知過程をシミュレートする能力は理解されていない。
このギャップに対処するために、ICSにおける異なる認知表現法を評価する新しいタスクを導入する。
筆者らは,最近出版された小説(LLMのリリース日より遅れて)のデータセットを構築し,著者のエミュレーションの文脈で7つの既製LCMをベンチマークする11条件認知評価フレームワークを提案する。
効果的な認知表現は、LLMがオリジナルの著者を反映したストーリーテリングを生成するのに役立つと仮定する。
このように、言語的特徴、概念マッピング、プロファイルベースの情報など、さまざまな認知表現をテストする。
以上の結果から,概念的特徴と言語的特徴の組み合わせはICSにおいて特に有効であることが示唆された。
重要なことは、LLMは物語構造よりも言語スタイルを模倣するのに効果的であり、より深い認知シミュレーションにおける限界を強調することである。
これらの発見は、個別の思考と表現の方法に適応し、よりパーソナライズされ、人間に準拠したクリエイティブな技術を促進するAIシステムを開発する基盤を提供する。
関連論文リスト
- IROTE: Human-like Traits Elicitation of Large Language Model via In-Context Self-Reflective Optimization [66.6349183886101]
IROTEは,安定かつ伝達可能な特性抽出のための新しいインコンテキスト手法である。
IROTEが生成する1つの自己反射は、様々な下流タスクにまたがる目標特性の安定な偽造を LLM が引き起こすことを示す。
論文 参考訳(メタデータ) (2025-08-12T08:04:28Z) - Unlocking Structured Thinking in Language Models with Cognitive Prompting [0.0]
大規模言語モデル(LLM)における問題解決を導く新しいアプローチとして認知的プロンプトを提案する。
本稿では,認知操作の決定論的シーケンス,自己適応型,ハイブリッド型という3つの変種を紹介する。
LLaMA, Gemma2, Qwenの各モデルの算術的推論ベンチマークGSM8Kにおける実験により、認知的プロンプトは標準的な質問応答に比べて性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-10-03T19:53:47Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Human Simulacra: Benchmarking the Personification of Large Language Models [38.21708264569801]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - Six Fallacies in Substituting Large Language Models for Human Participants [0.0]
大規模言語モデル(LLM)のようなAIシステムは、行動研究や心理学研究における人間の参加者を置き換えることができるのだろうか?
ここでは「置き換え」の観点を批判的に評価し、その妥当性を損なう6つの解釈誤りを識別する。
それぞれの誤りは、LSMとは何か、人間の認知について何を教えてくれるのかについて、潜在的な誤解を表している。
論文 参考訳(メタデータ) (2024-02-06T23:28:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。