論文の概要: Too Human to Model:The Uncanny Valley of LLMs in Social Simulation -- When Generative Language Agents Misalign with Modelling Principles
- arxiv url: http://arxiv.org/abs/2507.06310v1
- Date: Tue, 08 Jul 2025 18:02:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.35323
- Title: Too Human to Model:The Uncanny Valley of LLMs in Social Simulation -- When Generative Language Agents Misalign with Modelling Principles
- Title(参考訳): モデルに人的すぎる:社会シミュレーションにおけるLLMの不気味な谷 - 生成言語エージェントがモデリング原理を誤るとき-
- Authors: Yongchao Zeng, Calum Brown, Mark Rounsevell,
- Abstract要約: 大規模言語モデル(LLM)は、社会シミュレーションにおいてエージェントを構築するためにますます使われてきている。
我々は、LLMエージェントは表現力があり、詳細で難解であり、抽象、単純化、解釈可能性と整合することができないと論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have been increasingly used to build agents in social simulation because of their impressive abilities to generate fluent, contextually coherent dialogues. Such abilities can enhance the realism of models. However, the pursuit of realism is not necessarily compatible with the epistemic foundation of modelling. We argue that LLM agents, in many regards, are too human to model: they are too expressive, detailed and intractable to be consistent with the abstraction, simplification, and interpretability typically demanded by modelling. Through a model-building thought experiment that converts the Bass diffusion model to an LLM-based variant, we uncover five core dilemmas: a temporal resolution mismatch between natural conversation and abstract time steps; the need for intervention in conversations while avoiding undermining spontaneous agent outputs; the temptation to introduce rule-like instructions in prompts while maintaining conversational naturalness; the tension between role consistency and role evolution across time; and the challenge of understanding emergence, where system-level patterns become obscured by verbose micro textual outputs. These dilemmas steer the LLM agents towards an uncanny valley: not abstract enough to clarify underlying social mechanisms, while not natural enough to represent realistic human behaviour. This exposes an important paradox: the realism of LLM agents can obscure, rather than clarify, social dynamics when misapplied. We tease out the conditions in which LLM agents are ideally suited: where system-level emergence is not the focus, linguistic nuances and meaning are central, interactions unfold in natural time, and stable role identity is more important than long-term behavioural evolution. We call for repositioning LLM agents in the ecosystem of social simulation for future applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は、流動的で文脈的に一貫性のある対話を生成するという印象的な能力のために、社会的シミュレーションにおいてエージェントを構築するためにますます使われてきている。
そのような能力はモデルのリアリズムを高めることができる。
しかし、現実主義の追求は必ずしもモデリングのエピステミック基盤と相容れない。
LLMエージェントは表現力があり、詳細であり、難易度が高いので、抽象化、単純化、解釈性は通常モデリングによって要求される。
自然会話と抽象的時間ステップの時間分解ミスマッチ、自発的なエージェント出力を損なうことなく会話に介入する必要性、会話の自然性を維持しながらプロンプトでルールライクな指示を導入する誘惑、役割の一貫性と役割の進化の緊張、システムレベルのパターンが冗長なマイクロテキスト出力によって曖昧になる、といった5つのコアジレンマを明らかにする。
これらのジレンマは、LLMエージェントを、現実的な人間の行動を表現するのに十分自然なものではなく、社会的メカニズムを明らかにするのに十分な抽象的ではない谷へと導く。
LLMエージェントのリアリズムは、誤って適用された場合の社会的ダイナミクスを明確にするのではなく、曖昧にすることができる。
システムレベルの出現が焦点ではなく、言語的なニュアンスと意味が中心であり、相互作用は自然に展開し、安定した役割のアイデンティティは長期的な行動進化よりも重要である。
我々は、将来の応用に向けて、社会シミュレーションのエコシステムにLLMエージェントを再配置することを呼びかける。
関連論文リスト
- LLM-Based Social Simulations Require a Boundary [3.351170542925928]
大規模言語モデル(LLM)に基づく社会シミュレーションは明確な境界を確立するべきである。
本稿では、アライメント(実世界のパターンにマッチするシミュレーション行動)、一貫性(時間とともに一貫性のあるエージェント動作を維持する)、堅牢性という3つの重要な境界問題について検討する。
論文 参考訳(メタデータ) (2025-06-24T17:14:47Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Transforming Agency. On the mode of existence of Large Language Models [0.0]
本稿では,ChatGPTのような大規模言語モデル(LLM)のオントロジ的特徴について検討する。
また,ChatGPTは,言語オートマトンやインターロケータ,言語オートマトンとして特徴付けられるべきだと論じる。
論文 参考訳(メタデータ) (2024-07-15T14:01:35Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。